(c) 2023 am|dev

(A) :: Europa contra a nudez falsa

Europa contra a nudez falsa

Quando uma ferramenta permite, em segundos, fabricar imagens íntimas falsas não estamos perante uma curiosidade tecnológica. Estamos perante uma arma de humilhação massiva.

Álvaro Rocha
text

A União Europeia chegou a acordo para proibir sistemas de inteligência artificial capazes de criar ou manipular imagens de teor sexual ou íntimo sem consentimento. À primeira vista, poderá parecer apenas mais uma medida regulatória num continente frequentemente acusado de regular tudo e mais alguma coisa. Mas, neste caso, a Europa está a tocar num ponto essencial: a tecnologia não pode transformar o corpo das pessoas em matéria-prima para humilhação pública.

A decisão surge num momento em que os chamados deepfakes sexuais deixaram de ser uma ameaça abstrata. Já não estamos a falar apenas de vídeos falsos de políticos a dizerem o que nunca disseram, ou de burlas com vozes clonadas. Estamos a falar de uma forma nova, sofisticada e profundamente violenta de agressão digital: a criação artificial de imagens íntimas de pessoas reais, muitas vezes mulheres, sem o seu consentimento.

O caso recente de Giorgia Meloni, primeira-ministra italiana, é particularmente simbólico. Imagens falsas, geradas por inteligência artificial, circularam online mostrando-a em lingerie. Não eram reais. Não correspondiam a qualquer momento da sua vida. Eram uma fabricação tecnológica destinada a expor, ridicularizar e sexualizar uma mulher com responsabilidades públicas. Meloni apelou, justamente, a que as pessoas pensassem antes de partilhar conteúdos desse tipo. Mas o problema é precisamente esse: nas redes sociais, muitas vezes partilha-se antes de pensar.

Este episódio mostra que a violência digital já não precisa de câmaras escondidas, invasão de telemóveis ou roubo de fotografias privadas. Basta uma imagem pública, um rosto conhecido e uma ferramenta de IA. A partir daí, é possível fabricar nudez, intimidade, vergonha e escândalo. O dano é real, mesmo quando a imagem é falsa.

É aqui que muitos ainda se enganam. Dizem: “mas não aconteceu”. Como se isso apagasse a humilhação. Como se a vítima pudesse simplesmente explicar que aquilo é falso e seguir em frente. Não é assim. Uma imagem sexual falsa pode destruir reputações, afetar famílias, carreiras e saúde mental. Pode ser usada para chantagem, perseguição, vingança, intimidação política ou violência de género. A falsidade técnica da imagem não elimina a verdade social do dano.

Por isso, a decisão europeia é importante. Segundo a Reuters, o acordo provisório inclui a proibição de conteúdos sexualmente explícitos gerados por IA sem autorização, bem como obrigações de marcação de conteúdos produzidos artificialmente. A aprovação formal ainda terá de passar pelos governos da União Europeia e pelo Parlamento Europeu, mas o sinal político é claro: nem tudo o que a tecnologia permite deve ser socialmente tolerado ou legalmente aceite.

A medida não nasce no vazio. O Parlamento Europeu já tinha defendido uma proibição específica de sistemas de IA capazes de criar ou manipular imagens sexualmente explícitas, incluindo deepfakes, e o Conselho da União Europeia tinha igualmente avançado com uma posição favorável à proibição de conteúdos íntimos ou sexuais não consentidos gerados por IA.

Há quem veja nestas regras uma ameaça à inovação. É um argumento conhecido. Sempre que se tenta regular uma tecnologia poderosa, surge a acusação de que a Europa está a travar o futuro. Mas há uma diferença fundamental entre inovar e permitir a industrialização do abuso. A inovação não pode ser uma zona franca moral. Não pode servir de desculpa para transformar a dignidade humana num brinquedo algorítmico.

A IA generativa trouxe benefícios reais. Pode ajudar na medicina, na educação, na investigação científica, na produtividade das empresas e na criação artística. Mas a mesma tecnologia que cria valor pode também criar vítimas. E quando uma ferramenta permite, em segundos, fabricar imagens íntimas falsas de uma colega, de uma professora, de uma jornalista, de uma adolescente ou de uma adversária política, não estamos perante uma curiosidade tecnológica. Estamos perante uma arma de humilhação massiva.

O problema atinge particularmente as mulheres. Um relatório recente da ONU Mulheres alertou para o crescimento da violência online contra mulheres na vida pública, incluindo deepfakes, abusos sexuais baseados em imagem e formas cada vez mais sofisticadas de intimidação digital. O objetivo não é apenas envergonhar. É silenciar. É afastar mulheres do espaço público, da política, do jornalismo, da ciência, da liderança e da participação cívica.

Por isso, esta discussão não é apenas tecnológica. É democrática. Quando uma mulher sabe que a sua imagem pode ser manipulada sexualmente e espalhada em minutos por milhares de pessoas, a liberdade de participação pública fica condicionada. Quando uma estudante teme que colegas usem uma aplicação para fabricar imagens íntimas suas, a escola deixa de ser um espaço seguro. Quando uma jornalista ou política é atacada com pornografia falsa, o debate público degrada-se em violência.

A Europa está certa ao intervir. Mas a lei, por si só, não chega.

Será necessário obrigar plataformas a agir rapidamente na remoção destes conteúdos. Será necessário responsabilizar quem cria, partilha e monetiza estes sistemas. Será necessário desenvolver mecanismos de denúncia eficazes, proteger vítimas e garantir cooperação internacional, porque a internet não respeita fronteiras jurídicas. E será também necessário educar cidadãos para uma regra simples: não partilhar aquilo que não se sabe se é verdadeiro, sobretudo quando pode destruir a dignidade de alguém.

Há uma batalha cultural a travar. Durante demasiado tempo, o mundo digital foi tratado como se fosse menos real do que o mundo físico. Como se a violência online fosse apenas “conteúdo”. Como se a humilhação pública fosse apenas “brincadeira”. Como se uma imagem falsa não pudesse provocar uma dor verdadeira.

Pode. E provoca.

A União Europeia, tantas vezes lenta e burocrática, deu aqui um passo necessário. Não está a proibir a inteligência artificial. Está a dizer que nenhuma inteligência, artificial ou humana, deve ter licença para fabricar intimidade sem consentimento.

A tecnologia pode criar mundos imaginários. Mas não pode inventar o corpo dos outros para os destruir.