Em março de 2026, a União Europeia voltou a expor uma das suas tensões mais difíceis de resolver: a incapacidade de chegar a acordo sobre a extensão do regime transitório que permitia às plataformas digitais detetar e sinalizar conteúdos relacionados com abuso sexual infantil (CSAM). Não se trata apenas de um detalhe técnico do processo legislativo europeu. Trata-se de uma decisão; ou da ausência dela, com impacto direto na capacidade de resposta a um dos crimes mais graves e mais difíceis de combater no ambiente digital.
Este impasse não é apenas jurídico ou tecnológico. É um reflexo mais profundo da dificuldade da União Europeia em converter os princípios éticos em respostas operacionais, num contexto em que a realidade digital já evoluiu muito para além do enquadramento legislativo existente.
Os dados ajudam a enquadrar a dimensão do problema. Em 2024, a Internet Watch Foundation (IWF) identificou conteúdos de abuso sexual de menores em 291.273 páginas da internet, o valor mais elevado de sempre. Mais preocupante ainda é o facto de 62% desses conteúdos estarem alojados em servidores localizados na União Europeia, em países como os Países Baixos a assumirem uma proporção desproporcionalmente elevada. Estes números não descrevem uma tendência abstrata, descrevem um ecossistema digital onde a Europa não é apenas reguladora, como também é território de circulação deste tipo de material.
Em paralelo, os dados do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) mostram a escala global do fenómeno: dezenas de milhões de denúncias anuais relacionadas com a exploração sexual infantil, incluindo conteúdos que continuam a crescer em complexidade, nomeadamente com a introdução da inteligência artificial generativa.
É neste contexto que o impasse político europeu de março de 2026 ganha particular relevância. O falhanço nas negociações em trílogo entre Parlamento Europeu, o Conselho e a Comissão Europeia impede a extensão de um regime que, desde 2021, permitia às plataformas digitais utilizar mecanismos de deteção voluntária de CSAM em derrogação temporária das regras de privacidade eletrónica. Na prática, abre-se uma zona de incerteza jurídica num domínio onde a ausência de ação também produz efeitos.
E é aqui que a discussão deixa de ser abstrata.
A Europa gosta de se afirmar como o espaço onde os direitos fundamentais são mais protegidos no mundo. E isso é verdade, mas incompleto. Porque quando esses mesmos direitos entram em conflito direto, o sistema político europeu tem demonstrado dificuldade em decidir. O resultado é um debate que se prolonga, se fragmenta e, muitas vezes, se paralisa.
O problema é que, neste caso, a paralisia também é uma escolha.
Se é verdade que a proteção da privacidade e da encriptação ponta-a-ponta é um pilar essencial da sociedade digital europeia, também é verdade que a ausência de mecanismos eficazes de deteção de conteúdos de abuso infantil conhecidos cria um espaço de invisibilidade que recai diretamente sobre as vítimas. E essa tensão raramente é discutida de forma honesta no espaço público.
Ao longo dos últimos anos, o debate foi reduzido a uma dicotomia simplista: privacidade ou vigilância. Mas essa formulação é intelectualmente pobre e politicamente conveniente. Existem soluções intermédias tecnicamente viáveis, como a deteção de assinaturas digitais de conteúdos previamente identificados (hashing), já utilizadas por algumas plataformas através de tecnologias como PhotoDNA. O problema nunca foi apenas técnico. Foi político.
E aqui reside uma das contradições mais difíceis de ignorar: enquanto o debate institucional se prolonga há anos, as redes de partilha destes conteúdos continuam a operar com uma velocidade e escala que não esperam pela capacidade de consenso legislativo europeu.
Os dados mostram também outro aspeto frequentemente ignorado: os mecanismos voluntários de cooperação entre as plataformas tecnológicas que continuam a produzir resultados mensuráveis na remoção de conteúdos ilícitos. Isto significa que, apesar das limitações, os sistemas de deteção não são irrelevantes, são imperfeitos, mas operacionais.
Ainda assim, o impasse mantém-se.
Do meu ponto de vista, o que está em causa não é apenas a escolha entre proteção de dados e a segurança infantil. É algo mais estrutural: a capacidade da União Europeia de decidir em tempo útil quando os seus próprios princípios entram em tensão. E essa dificuldade não é neutra. Tem consequências práticas.
A pergunta que fica é incómoda, mas necessária: o que significa uma regulação europeia que é tecnicamente sofisticada, juridicamente exigente, mas politicamente incapaz de responder à velocidade do problema que pretende regular?
A resposta a esta pergunta não é simples, nem deve ser apressada. Mas uma coisa é clara: a ausência de decisão também é uma forma de decisão e, neste caso, é uma decisão que não é invisível para todos.
Enquanto o debate europeu continua centrado na proteção contra os riscos de vigilância, há um risco menos discutido, mas igualmente real: o de uma Europa que protege tão bem os seus princípios que perde a capacidade de proteger as suas vítimas. E talvez seja aqui que o debate precise de mudar de forma definitiva. Não para escolher entre a privacidade ou a proteção infantil. Mas para assumir que, num espaço digital global, a inação também tem custos e esses custos não são distribuídos de forma igual.