(c) 2023 am|dev

(A) :: O deepfake político não quer enganar, quer habituar 

O deepfake político não quer enganar, quer habituar 

O deepfake mais perigoso não é o que mente sobre um facto. É o que treina um país a aceitar a violência como argumento e a ver uma minoria como um obstáculo.

Nuno Miguel Lemos
text

Há uma diferença entre um boato e uma ameaça. O boato quer que acreditemos. A ameaça quer que nos acostumemos. E é por isso que um vídeo curto que circulou na Índia, feito com recurso a inteligência artificial, merece mais atenção do que a inevitável discussão sobre “ser verdadeiro ou falso”.

Partilhado nas redes e depois apagado, o vídeo mostra um líder político de Assam a manusear uma arma e, na sequência, a disparar sobre a imagem de homens muçulmanos, acompanhada de slogans como “No Mercy” e mensagens sobre “limpar” o território de “estrangeiros”. Mesmo para quem já viu de tudo online, há aqui um salto qualitativo. Não é apenas propaganda. É violência performativa, em formato de meme, com estética de bravura e com um destinatário social bem identificado.

É tentador tratar isto como mais um episódio de “desinformação” e seguir em frente. Só que este caso não se encaixa bem no modelo clássico da mentira política, em que alguém fabrica um vídeo para fingir que um adversário disse ou fez algo que nunca aconteceu. O objetivo aqui não parece ser enganar indecisos, nem falsificar um evento específico. O objetivo mais plausível é deslocar o limite do aceitável, habituar o público a ver a minoria como alvo e o governante como executor simbólico de uma punição. O dano não está no facto inventado. Está na normalização do imaginário.

A literatura sobre deepfakes políticos ajuda a perceber porquê. Os estudos mostram efeitos irregulares na persuasão direta, sim, mas o impacto mais consistente tende a surgir noutro plano: aumento de incerteza, erosão da confiança no que é autêntico, e cinismo generalizado. Mesmo quando as pessoas desconfiam, fica um resíduo emocional. Uma suspeita. Um “se calhar”. E esse “se calhar” é suficiente para azedar o debate público, porque torna mais fácil acreditar no pior, mais fácil desumanizar, mais fácil justificar o injustificável.

Há ainda um fenómeno menos falado e mais útil para interpretar este episódio: a vantagem do mentiroso por exaustão. Quando tudo pode ser fabricado, a responsabilidade dilui-se. A autoria torna-se nebulosa. E a política aprende a usar essa névoa como tática. Publica-se para marcar território, apaga-se para reduzir custos, e no fim responde-se com silêncio, com uma meia desculpa ou com a clássica fuga: “Isso foi uma montagem”. A inteligência artificial não é só uma ferramenta de produção barata. É um dispositivo de negação plausível.

Se isto fosse apenas um exercício de mau gosto, podia ficar no anedotário. O problema é o contexto. Assam tem uma história densa de tensões comunitárias, e a hostilidade contra muçulmanos, em particular muçulmanos bengalis, tem sido alimentada por narrativas sobre “invasão”, “ilegalidade” e “ameaça demográfica”. Quando uma sociedade já tem um repertório de suspeita e de estigma, um vídeo destes não precisa de criar ódio. Só precisa de o tornar portátil, viral e emocionalmente eficiente. A IA não inventa a desumanização. Dá-lhe um formato com mais alcance e menos custo.

E é aqui que a questão se torna mais grave do que “deepfakes”. O que está em jogo é a passagem de um discurso de ódio clássico, feito de palavras e insinuações, para um discurso de ódio visual, que encena punição e recompensa, que transforma violência em entretenimento político. A imagem do líder a disparar, ainda que sintetizada, funciona como sinal. Para a base, é bravata moral e promessa de dureza. Para a minoria, é intimidação. Para a sociedade, é um teste de tolerância: até onde podemos ir sem pagar preço?

O elemento “No Mercy” é particularmente revelador porque elimina qualquer ambiguidade moral. Não se trata de “segurança”, “ordem” ou “lei”. Trata-se de licença para a crueldade. E quando a crueldade entra em circuito de campanha, em linguagem de meme, deixa de ser apenas marginal. Começa a tornar-se cultura. A política passa a operar não só por programas e medidas, mas por estados emocionais: medo, vingança, humilhação, desejo de expulsão. A tecnologia apenas acelera a entrega.

Há quem responda com a solução técnica preferida do nosso tempo: detectores, marcas de água, verificação forense. Tudo isso é útil, mas insuficiente. A deteção corre sempre atrás, e a propaganda não precisa de ser perfeita para funcionar. Além disso, este tipo de conteúdo é muitas vezes híbrido, mistura real e sintético, e aproveita precisamente essa zona cinzenta para sobreviver ao escrutínio.

O que falta é tratar o problema como aquilo que é: um ato político com externalidades reais. Quando se representa violência contra um grupo identificado, em contexto de tensão comunitária, não estamos perante “criatividade digital”. Estamos perante incitamento em modo moderno, embalado para partilha rápida e com custo reputacional reduzido.

A resposta, portanto, tem de atacar incentivos e responsabilidade. As plataformas precisam de critérios claros para conteúdos sintéticos que encenem violência contra minorias, com remoção célere e penalizações consistentes para reincidência. Os partidos e estruturas de campanha precisam de ser responsabilizados quando este tipo de material circula em ecossistemas próximos, mesmo que “apareça e desapareça” em horas. E os media e a sociedade precisam de uma literacia mais madura, menos obcecada com a pergunta “isto é real?” e mais focada na pergunta certa: “para que serve este vídeo, a quem se dirige, e que comportamento pretende legitimar?”

Porque o que assusta neste episódio não é a sofisticação. É a intenção. O deepfake mais perigoso não é o que mente sobre um facto. É o que treina um país a aceitar a violência como argumento e a ver uma minoria como um obstáculo removível. Se a política do século XXI for uma guerra de imagens, este vídeo é um aviso simples e brutal: a IA não veio apenas para fabricar realidade. Veio para fabricar permissões.