(c) 2023 am|dev

(A) :: Um travão aos abusos online de crianças ou uma ameaça de vigilância em massa? A proposta de regulamento europeu que está a gerar polémica

Um travão aos abusos online de crianças ou uma ameaça de vigilância em massa? A proposta de regulamento europeu que está a gerar polémica

Proposta europeia quer análise às comunicações para deteção de abusos sexuais de crianças. Proposta é defendida pelas associações de proteção, mas críticos chamam-lhe "intrusiva".

Cátia Rocha
text

Há quem lhe chame o “regulamento mais contestado da história dos regulamentos”. Na União Europeia (UE) está em marcha uma legislação que assume como objetivo prevenir e combater online o abuso sexual de crianças, várias vezes referida com a sigla CSAR. Na prática, surge de uma proposta apresentada pela Comissão Europeia, em 2022, no âmbito de uma estratégia mais robusta de combate aos crimes contra crianças.

A proposta deste regulamento prevê que as plataformas de comunicação, como WhatsApp, Signal ou Telegram, tenham de analisar ligações e conteúdos multimédia (imagens e vídeos, mas não mensagens de áudio) nas conversas para apurar se há comportamentos perigosos. Como por exemplo aliciamento de crianças ou materiais de abuso sexual infantil (CSAM, a sigla em inglês). As conversações em texto não serão analisadas. Até agora, as plataformas já tinham responsabilidades de monitorização, mas a denúncia às autoridades era feita de forma voluntária.

O regulamento, que já teve várias fases de discussão, não é consensual. As associações de proteção da criança defendem a proposta, sublinhando a importância de mais ferramentas para protegê-las dos abusos online. Do outro lado da barricada surgem os críticos — que até já deram outra designação ao regulamento: chatcontrol” — que temem a criação de um “sistema de vigilância” ou o “fim da encriptação” online. Caso o regulamento passe por todas as etapas necessárias e se transforme efetivamente numa lei a nível europeu, as associações de defesa da privacidade receiam ainda um “erros na análise, que poderá inevitavelmente levar a acusações erradas, eclipsando casos genuínos com falsos alertas”, explica ao Observador Simeon Debrouwer, conselheiro de políticas da European Digital Rights (EDRi).

Com o debate a aquecer, aproxima-se uma data crucial: 12 de setembro, quando os Estados-membros deverão finalizar a sua posição sobre o tema no Conselho da União Europeia. Está prevista, depois, uma votação a 14 de outubro e, só depois disso, têm início os trílogos entre instituições europeias. Numa corrida contra o tempo, multiplicam-se os esforços de parte a parte: as associações de defesa da criança organizam-se em fact-checks de esclarecimento ao que consideram ser desinformação, enquanto os vários movimentos cívicos e setoriais que criticam o regulamento incentivam os cidadãos a contactar diretamente os seus representantes na UE para se oporem às regras.

Em que consiste este regulamento?

Este regulamento nasce de uma proposta feita pela Comissão Europeia em maio de 2022. Foi apresentada como a materialização de uma das prioridades da União Europeia: a proteção das crianças, tendo em conta a estatística de que “pelo menos uma em cada cinco crianças é vítima de violência sexual durante a infância”. Bebendo de outras leis europeias para combater o abuso sexual infantil, este regulamento centra-se principalmente no mundo online, mais concretamente nas comunicações eletrónicas.

Jorge Silva Martins, sócio da MFA Legal, considera ao Observador que o grande objetivo deste regulamento passa por “garantir que não há lacunas na regulação”. Embora já existam pontos de proteção como a Lei dos Serviços Digitais (DSA), “a legislação existente não chega tão longe quanto era necessário para a proteção das crianças”.

https://observador.pt/especiais/sem-livre-passe-contra-a-desinformacao-que-alteracoes-fazem-as-gigantes-tecnologicas-para-cumprir-a-lei-dos-servicos-digitais/

“O grande objetivo desta regulação é, em primeiro lugar, identificar riscos de abusos sexuais contra crianças e, em segundo lugar, tornar essas situações passíveis de denúncia obrigatória por parte dos operadores de serviços digitais e de comunicações”, resume ao Observador Ana Rita Duarte de Campos, sócia contratada da Abreu Advogados. É que estas denúncias “têm acontecido, até agora, voluntariamente”, realça. “Há operadores de serviços de comunicações digitais que fazem esta prevenção voluntariamente”, notando mesmo que, “no fundo, isto atenta contra a regra da confidencialidade nas comunicações”, continua.

A proposta de regulamento prevê que a identificação dos riscos seja feita com recurso à tecnologia, analisando imagens, vídeos e ligações. As mensagens de texto ficam de fora desta análise. As plataformas que asseguram comunicações, como o WhatsApp, Messenger, Telegram ou Signal, passem a ter um enquadramento legal mais robusto para identificar materiais de abuso nas conversas.

Carolina Soares, coordenadora da unidade de cibercrime da Associação Portuguesa de Apoio à Vítima (APAV), refere que será um passo além das soluções atuais de identificação, nomeadamente através da tecnologia de hashing, que permite identificar material de abuso online. “Só que esta solução de hashes só funciona no feed, na parte principal das plataformas e não na área de chat.” A tecnologia de hashing não está a ser aplicada nas conversações “porque as plataformas não querem”. O que leva a que não haja este conteúdo nas publicações normais, mas haja “troca de conteúdo e o aliciamento através do chat… onde a tecnologia de hashing não chega porque as plataformas até agora não o permitiram”.

O que é a tecnologia de hashing?

A tecnologia de hashing é um dos exemplos de soluções tecnológicas que já é usada para identificar materiais de abuso sexual infantil. É vista como uma parte fundamental do combate à circulação de material perigoso online. Transforma um material de abuso infantil numa série única de números, que funciona quase como se fosse uma impressão digital de uma imagem ou vídeo.

Depois, essa combinação numérica é comparada com listas de “hash”, base de dados de grande dimensão. Mas as associações e as autoridades deixam de ter acesso ao que está na imagem, com intuito de proteger as vítimas. As associações referem que um material de abuso pode circular durante vários anos e ser partilhado gradualmente em novas redes. Assim, sempre que houver correspondência em relação à lista, o algoritmo alerta e sinaliza que o conteúdo pode ser removido de uma plataforma e reportado às autoridades.

A atual versão da proposta indica que as empresas tecnológicas “vão poder ter flexibilidade para desenhar e implementar medidas consoante o risco identificado e as características dos serviços que disponibilizam e como são utilizados, de acordo com a lei da União Europeia”. O Observador contactou a Meta, dona do WhatsApp e Messenger, o Signal e o Telegram para perceber o respetivo posicionamento em relação ao regulamento e aos efeitos que pode ter nas comunicações encriptadas. Nenhuma das empresas respondeu.

Porém, ainda em 2024, Meredith Whittaker, presidente da Fundação Signal, criticou a iniciativa europeia. “Ordenar uma análise em massa de comunicações privadas fundamentalmente mina a encriptação. Ponto final”, declarou citada num comunicado de junho. “Pedimos àqueles que estão a brincar com estes jogos de palavras que parem e reconheçam o que a comunidade de especialistas está repetidamente a deixar claro. Ou há encriptação ponto a ponto para proteger toda a gente, e se consagra a segurança e a privacidade, ou então termina para toda a gente. E quebrar a encriptação ponto a ponto, particularmente num tempo de tanta volatilidade geopolítica, é uma proposição desastrosa”, rematou. O comunicado de Whittaker foi na altura partilhado por Edward Snowden, denunciante da vigilância por parte da Agência de Segurança Nacional (NSA) dos EUA.

https://observador.pt/especiais/presidente-da-signal-nao-teme-que-ia-salte-da-jaula-e-nos-domine-perigo-esta-no-poder-de-quem-a-controla/

https://twitter.com/Snowden/status/1803127597158760735

Jorge Silva Martins, sócio da MFA Legal, contextualiza que, além do “processo de análise de risco” das operadoras, o regulamento também prevê a criação “de uma autoridade nacional, que, no fundo, vai classificar o risco das plataformas relativamente a tipos de conteúdos que são partilhados”. A partir da análise das “suspeitas”, como explica o advogado, essa entidade poderá “reportar o risco” a outras autoridades nacionais, que farão “uma validação judicial”.

Outro dos pontos previsto no regulamento é a criação de um Centro da União Europeia para combater o abuso sexual de crianças. “Apoiar de forma mais forte o processo de avaliação e mitigação de risco” e ainda “desenvolver e facilitar o desenvolvimento de tecnologias” de deteção será algumas das suas tarefas, diz o texto da proposta dinamarquesa. Os especialistas ouvidos salientam que seria uma figura semelhante ao norte-americano NCMEC, o National Center for Missing & Exploited Children. Esta entidade atua em temas como o aliciamento online, extorsão sexual infantil, bullying informático, tráfico sexual infantil ou ainda rapto infantil.

Perante este cenário exposto no regulamento, os advogados ouvidos pelo Observador reconhecem a complexidade à volta do tema. “Há sempre colisões de direitos no sentido da segurança”, admite Ana Raquel Conceição, da Antas da Cunha Ecija. “De facto há uma questão muito polémica e interessante de discutir que é, existindo este filtro ou controlo, as comunicações que nós temos deixam de estar verdadeiramente sob a nossa alçada.”

https://observador.pt/especiais/sem-livre-passe-contra-a-desinformacao-que-alteracoes-fazem-as-gigantes-tecnologicas-para-cumprir-a-lei-dos-servicos-digitais/

“É uma questão típica de, para prevenir condutas criminosas, que tipo de direitos fundamentais podemos restringir”, resume. “É a ideia da proporcionalidade e eficácia” e se “é legítima essa cedência do direito de reserva à vida privada, das comunicações, em prol da proteção e prevenção deste tipo de crime”.

Já Ana Rita Duarte de Campos, sócia contratada da Abreu Advogados, vê o tema como algo que precisa mesmo de ser debatido. “O que está em discussão é saber até que ponto o princípio de confidencialidade nas comunicações pode ser comprometido e se pode ser através do próprio controlo de quem disponibiliza estes serviços ou de entidades de controlo/sancionatórias que vão ser constituídas em cada Estado-membro”.

Ainda que o texto da proposta de regulamento mencione a proteção da encriptação — um princípio em que a conversa é protegida, tornando-se ilegível para terceiros — os advogados reconhecem que essa prática pode, no entanto, ficar em xeque. “O que os críticos dizem é que estamos aqui a abrir uma porta, uma espécie de porta dos fundos da encriptação e da cibersegurança”, diz Jorge Silva Martins. “Estamos naturalmente a permitir e a abrir uma porta relativamente a um conjunto de conteúdos. (…) É um equilíbrio particularmente difícil: como é que se garante que existe controlo das mensagens que têm um cariz sexual relativamente a crianças e como é que se gere o risco de falsos positivos e conteúdos que não deveriam ter sido sujeitos a este tipo de controlo.”

Os passos de uma legislação que gera debate até entre instituições europeias

Este regulamento já passou por várias etapas ao longo dos anos. O sócio da MFA Legal, Jorge Silva Martins, explica que o texto “surge na sequência de uma série de decisões da Comissão Europeia, de julho de 2020, para promover uma luta eficaz contra o abuso sexual de crianças”. Também parte da base de uma diretiva anterior, de 2011, relativa à luta contra o abuso sexual e a exploração sexual de crianças e a pornografia infantil.

“A diretiva não vai ser revogada com este regulamento”, esclarece Jorge Silva Martins. O regulamento “vai ser uma espécie de camada adicional” que terá a diretiva como ponto de partida. E, embora a Lei dos Serviços Digitais (DSA), já tenha questões ligadas à proteção online, “a legislação existente não chega tão longe como seria necessário para a proteção das crianças, em particular no caso do abuso sexual”, sustenta o especialista.

A discussão à volta deste regulamento tem-se arrastado. Tito de Morais, cofundador da Agarrados à Net, relata que o tema “tem passado de presidência em presidência [da UE], porque de facto não é fácil”. Por exemplo, foram feitas tentativas de avançar com o regulamento durante as presidências húngara e belga do Conselho Europeu. Durante a presidência polaca, no primeiro semestre de 2025, o tema também esteve em cima da mesa.

Sem conclusão à vista nas discussões, os organismos europeus adotaram entretanto medidas interinas para fazer a ponte até ao futuro regulamento para combater o abuso sexual de crianças. Essas medidas já permitem aos serviços online detetar, reportar e remover conteúdos de abuso. Em abril de 2024, o Parlamento Europeu e o Conselho da UE chegaram a um acordo provisório para prolongá-las até 3 de abril de 2026.

Com o prazo a meses de distância, o regulamento ganhou um novo ímpeto a 1 de julho, quando a Dinamarca assumiu a presidência rotativa da União Europeia. Logo no primeiro dia, foi apresentada uma proposta mais extensa com a ressalva de que fora baseada no “trabalho do Conselho durante as presidências anteriores” e com “emendas à proposta da Comissão [Europeia] em vários aspetos para adicionar mais limites para proteger a cibersegurança e garantir a proporcionalidade e o respeito dos direitos fundamentais”. E garante querer “manter o texto o mais simples possível”.

O texto pode querer ser simples, mas a complexidade do tema mantém-se. Aliás, desde o início que o regulamento tem estado envolto em contestação. Além de ser criticado por associações ligadas à privacidade ou pelos profissionais de segurança, até levanta dúvidas a organismos europeus, nomeadamente ao Comité Europeu para Proteção de Dados (EDPB, em inglês), um órgão independente que contribui para a aplicação das regras de proteção de dados na UE, e a Autoridade Europeia para a Proteção de Dados (EDPS). Ainda em 2022, em comunicado conjunto, os dois organismos levantaram “sérias preocupações” em relação à proposta da Comissão.

Já numa nota de fevereiro de 2024, assinada por Anu Talus, a líder do EDPB, via-se com bons olhos algumas das alterações introduzidas pelo Parlamento Europeu, mas ainda com a conclusão de que o texto continuava a ter “algumas das lacunas” assinaladas dois anos antes. “Pedimos aos co-legisladores que garantam que qualquer texto futuro não é ambíguo e que respeita todos os direitos fundamentais, incluindo os direitos das crianças e pessoas vulneráveis.” Não foram feitos, desde então, mais pareceres sobre este tema.

Associações de proteção infantil saúdam regulamento. “As nossas comunicações já são rastreadas”

Há um ponto comum entre as várias associações de proteção e defesa das crianças contactadas pelo Observador: a recusa em usar o termo “chat control” para definir esta iniciativa legislativa.

“O regulamento tem como objetivo detetar material altamente ilegal, não tem o propósito de controlar ou limitar a liberdade de expressão”, explica ao Observador Emily Slifer, diretora da políticas da associação Thorn, que faz parte de uma coligação chamada ECLAG, que agrega mais de 70 associações europeias, incluindo algumas portuguesas, e que se foca na defesa de legislação de combate ao abuso. “Tem como objetivo permitir às empresas [tecnológicas] remover materialmente altamente ilegal que encontrem nas suas plataformas em vários Estados-membros.”

“Chegámos aqui porque há uma lacuna legal que se tenta corrigir [com o regulamento]”, realça Emily Slifer. “Só queremos certeza legal para as empresas fazerem o que já estão a fazer”, nomeadamente tendo em conta a medida provisória aprovada pelas instituições europeias. A diretora de políticas da Thorn vê o regulamento como uma “base legal” mais robusta para os trabalhos de remoção de conteúdos ilegais.

Slifer faz questão de rebater quem diz que as “fotografias de bebés na banheira” podem ser assinaladas como material de abuso sexual infantil. “É uma tecnologia muito específica para encontrar material de abuso infantil. As imagens inocentes dos filhos a brincar na praia ou de um bebé numa banheira não são a mesma coisa. As imagens são completamente diferentes.”

Tito de Morais, cofundador da Agarrados à Net, sublinha que há efetivamente um “confronto de dois direitos: o direito à segurança e à proteção e o direito à privacidade”. Mas, “quando se tratam de audiências vulneráveis, como é o caso das crianças, no nosso ponto de vista os valores de proteção e segurança sobrepõem-se aos valores da privacidade.”

“Não estamos a falar de controlo governamental”, contesta Tito de Morais, reagindo a alguns dos argumentos de quem está contra o regulamento. “Neste momento as nossas comunicações já são rastreadas”, exemplifica. “Se tem um filtro de spam: há um software que analisa e nem sequer apresenta as mensagens quando deteta spam, coloca-as numa pasta específica. Se isso pode acontecer para mensagens comerciais, porque é que as mensagens não podem ser [analisadas] para detetar aliciamento sexual de crianças e jovens?”, questiona.

“É claro que tem de haver um compromisso entre a privacidade, a ética e a segurança, um equilíbrio”, completa Cristine Miranda, cofundadora da Agarrados à Net. Mas destaca que não são apenas as soluções tecnológicas a ter um papel relevante neste combate aos perigos online. “Os pais têm de ser ensinados, têm de estar atentos e acompanhar. As famílias têm um papel importante na prevenção.”

Márcia Lemos, vice-presidente da AjudAjudar – Associação para a promoção dos direitos das crianças e jovens, também reconhece o “grande confronto em relação à parte tecnológica e à parte legal”. “Mas não podemos perder o norte”, frisa ao Observador, dizendo não acreditar que “haja um objetivo de escrutinar emails, mensagens, fotografias e a privacidade de todos os cidadãos da União Europeia.”

A vice-presidente desta associação diz concordar “perfeitamente com a aplicação do regulamento”, mas sublinha a necessidade de “haver um grande debate, que não está a existir e que está a ser desviado”. Contesta, por exemplo, a “mensagem populista” de que “cidadãos inocentes vão ser incomodados” e até o que considera ser “algum aproveitamento político, mesmo a nível da União Europeia”.

“É um regulamento muito necessário”, defende Carolina Soares, coordenadora da unidade de cibercrime da Associação Portuguesa de Apoio à Vítima (APAV). “Obviamente tudo quanto é trabalho de prevenção, por um lado, é mais do que bem-vindo, mas também é muito necessário garantir que existem mecanismos eficazes e ativos na deteção do conteúdo [ilegal] e na remoção do mesmo.” E isso faz-se, por um lado, “com tecnologia que consiga fazer essa proteção com dimensão para tal”, vinca. “Não é termos um analista que vá publicação a publicação, manualmente, verificar, tendo em conta a escala de conteúdo que há na internet.”

Carolina Soares refere que a “Comissão Europeia não está a criar conceitos, é tecnologia que já existe, que já está a ser aplicada”. A diferença é que “agora há um eixo mais forte e, sobretudo, um caráter obrigatório para as plataformas” fazerem esse tipo de deteção de material de abuso infantil.

Também afirma que é momento para uma “discussão necessária” e que há “um conflito muito grande entre a privacidade e o combate ao abuso de menores”. “Mas colocar na gaveta e, desculpe a expressão, assobiar para o lado como se o problema não existisse… É que me parece prejudicial. Mas, se vai sair de qualquer uma dessas discussões uma solução que agrade a todos… creio que não.”

Ângelo Fernandes, fundador da associação Quebrar o Silêncio, tece críticas a quem quer dar a “ilusão de que se trata [da criação] de um big brother, quando depois vemos as pessoas a darem os seus dados muito despreocupadas para outras coisas. Acho que há alguma contradição”. “Temos de parar uma máquina de abuso” e “as empresas de tecnologia têm de ser obrigadas a cumprir com as regras”, defende.

“Stop chat control” e o temor do fim da privacidade: os argumentos dos críticos

Do outro lado da barricada estão várias associações de defesa da privacidade, de software e profissionais de segurança que se mostram contra o regulamento. Multiplicam-se as iniciativas para travá-lo: uma pesquisa por “chat control” apresenta vários resultados: a “Stop Chat Control”, a “Fight Chat Control” ou ainda a “Stop Scanning Me”.

Muitos destes sites têm disponibilidade em várias línguas e até algumas campanhas localizadas. Há neste momento uma campanha a decorrer em Portugal. Há ainda várias petições, como a lançada pelos alemães do Junge Liberale, que tem mais de 43 mil assinaturas verificadas. Também a European Digital Rights (EDRi) tem uma petição pedindo à Comissão Europeia que “seja melhor a abordar esta questão criticamente importante de forma a que respeite a privacidade, a segurança e a liberdade de expressão”.

Estas iniciativas tentam simplificar o que está em causa neste regulamento e apresentam testemunhos de ativistas ou associações sobre as eventuais consequências. Além das dúvidas sobre os efeitos para a privacidade, é usado o argumento de que poderá afetar a forma como adolescentes comunicam online, por exemplo.

A contestação ao regulamento já vem de 2022, quando foi apresentada a primeira versão da proposta. Na altura, 134 grupos da sociedade civil e profissionais dirigiram uma carta aberta à Comissão Europeia, contestando o regulamento. “Quando fundamentalmente se mina a forma como a internet funciona ela torna-se menos segura para toda a gente”, foi argumentado. A missiva referiu ainda que “a lei iria tornar a internet num espaço mais perigoso para a privacidade, segurança e liberdade de expressão de toda a gente”. Segundo várias das associações, “até para as crianças que a legislação pretende proteger”.

A associação portuguesa D3 — Defesa dos Direitos Digitais está entre os signatários desta carta, a par da Associação Nacional para o Software Livre (ANSOL) e da Associação Portuguesa para a Promoção da Segurança da Informação (AP2SI). Em comunicado, a D3 considera inclusive que a proposta europeia “é anticonstitucional”, já que viola o artigo 34.º da Constituição Portuguesa, relativo à inviolabilidade da correspondência e outros meios de comunicação privada.

Em declarações ao Observador, Paula Simões, da D3, sublinha que a “proposta quer combater um crime que é horrível, o de abuso sexual das crianças, mas o problema é que uma das formas de combater esse crime dá cabo da encriptação das comunicações, ou seja, obriga todas as plataformas a olhar para as comunicações privadas dos cidadãos”. Para esta especialista da D3, organização responsável pela manutenção da versão portuguesa do “Stop Chat Control”, o resultado será “terrível, porque também acaba por pôr em risco as pessoas que pretende proteger”.

Paula Simões sublinha que “salvaguardar a encriptação é uma linha vermelha” nesta discussão, até porque “não é possível ter encriptação para umas pessoas e não para outras”, refere quando questionada sobre as exceções previstas no regulamento. “A partir do momento em que a encriptação é baseada em segredos, a partir do momento em que quebra o segredo, quebra-se para toda a gente.”

A Associação Portuguesa para a Promoção da Segurança da Informação (AP2SI) também critica o regulamento. Em declarações ao Observador, a associação refere que “a proposta atual compromete de forma séria a utilização da encriptação de ponta a ponta”. “Não é tecnicamente possível enfraquecer a encriptação ‘só para alguns casos’ sem afetar a segurança de todas as comunicações”, contestam, frisando que “este não pode ser o caminho”. “Defender a encriptação é defender a segurança de todos, inclusive das potenciais vítimas.”

https://twitter.com/edri/status/1714568875579208181

A European Digital Rights (EDRi) também critica a proposta dinamarquesa. “Acreditamos que os dinamarqueses estão meramente a fazer um espetáculo de que se preocupam com o abuso sexual de crianças quando tudo o que fizeram foi reciclar partes de outras propostas de compromisso — algumas que falharam em garantir apoio suficiente — sem fazer qualquer gesto em relação aos Estados-membros que estão preocupados com a vigilância massiva e o impacto na encriptação ponto a ponto”, diz ao Observador Simeon Debrouwer, conselheiro de políticas da EDRi.

Este responsável vê como pontos preocupantes na proposta dinamarquesa a deteção automática através de inteligência artificial, “mesmo que estas ferramentas não sejam capazes de ter em conta o contexto das mensagens”. Também critica o facto de os “utilizadores terem de ser forçados a ‘consentir’ a análise no âmbito dos termos e condições gerais do serviço, apesar de isto representar uma séria infração à sua privacidade e segurança digital”.

Este responsável nota que o prazo de votação geral está agendado para 14 de outubro e que até lá a “Dinamarca vai meramente continuar a discutir a proposta e a avaliar se tem apoio suficiente”. “Se virem que não têm apoio, provavelmente vão cancelar o voto de 14 de outubro — foi o que aconteceu no passado com a Bélgica, por exemplo.” Do ponto de vista desta associação, se “os Estados-membros realmente se preocupam com a proteção online das crianças, esperamos vê-los a afastarem-se de uma solução tecno-solucionista, injusta (como já disseram os seus próprios advogados) e uma abordagem tecnicamente inviável”.

“A França já pediu no passado a retirada da proposta, vamos ver se há mais países a juntar-se ou se os Estados-membros vão aceitar avançar com uma proposta com medidas menos controversas”, dando como exemplo “o estabelecimento de um centro da UE para atuar como centro de conhecimento e educação”.

Estados-membros com opiniões divergentes. Portugal reconhece “processo complexo”

Polémicas à parte, há datas relevantes neste processo a aproximarem-se, que imprimem urgência às discussões. Com o 12 de setembro a chegar, alguns países sinalizam a sua intenção de voto. Tendo em conta posições anteriores dos Estados-membros, poderá haver mais apoiantes do que países contra.

Até ao momento, há pelo menos três países publicamente contra a atual forma da proposta, enquanto outros seis continuam indecisos (Estónia, Alemanha, Grécia, Luxemburgo, Roménia e Eslovénia). Do lado de quem está contra, a Finlândia salienta que é “muito importante estabelecer um enquadramento legal a nível da UE para a deteção, denúncia e remoção de violência sexual” contra crianças. “No entanto”, é possível ler num comunicado de uma reunião de 29 de agosto, o governo finlandês “não pode apoiar” a proposta “porque contém uma ordem de detenção que foi considerada problemática do ponto de vista constitucional”.

Também a República Checa vai votar contra o tema. O primeiro-ministro Petr Fiala anunciou a 26 de agosto que o país “não vai permitir a monitorização da correspondência privada dos cidadãos”. “Proteger as nossas crianças é importante, mas precisamos fazê-lo de uma maneira diferente”, justificou. O governante considera que a proposta atual “é perigosa e pode levar a abusos”.

https://twitter.com/P_Fiala/status/1960286878256508950

Da Bélgica também chega a informação sobre um possível sentido de votação contra a proposta. Em entrevista ao jornal belga HLN, Michael Freilich, deputado do Nova Aliança Flamenga (N-VA), um dos partidos que apoia o governo, declarou que “se vão opor ao ‘chat control’ na sua forma atual, porque saiu do controlo”. O N-VA é o partido com maior número de deputados no país.

Para já, não há uma indicação clara sobre a posição de Portugal em relação à proposta dinamarquesa. Contactada, a Representação Permanente de Portugal na UE remeteu esclarecimentos, nesta fase, para o Ministério da Justiça, que tem a tutela do tema. Ao Observador, fonte da Direção-Geral da Política de Justiça (DGPJ) indica que “as negociações estão em curso, todas as partes estão a ser ouvidas e os interesses em causa estão a ser devidamente ponderados, mas o processo é complexo e condicionado por múltiplos fatores, não apenas pela posição de Portugal”.

“Neste contexto, não é possível antecipar resultados”, é dito. “A complexidade advém, entre outros fatores, de os Estados-membros terem diferentes opiniões quanto à ponderação a fazer entre a necessidade de proteger a privacidade e a obrigação de salvaguardar os direitos das crianças.” Noutras etapas do desenvolvimento deste regulamento, em anteriores presidências da UE, Portugal mostrou-se a favor desta regulação.

Em alguns casos, os eurodeputados portugueses estão a assumir posições sobre este regulamento europeu. Ana Miguel Pedro, eurodeputada do CDS-PP, declarou em agosto que, “embora o combate ao abuso sexual infantil seja uma prioridade inquestionável, medidas preventivas de vigilância em massa podem ser desproporcionais, afetando indiscriminadamente pessoas que não estão sob suspeita”. Assim, revelou que o CDS no Parlamento Europeu “não acompanha a proposta dinamarquesa na sua forma atual, defendendo que é possível proteger as crianças no ambiente digital e, ao mesmo tempo, salvaguardar os direitos e liberdades de toda a sociedade”.

João Cotrim Figueiredo, eurodeputado da IL, também tem feito várias declarações sobre o tema. “Desde 2022 que sou obviamente contra a proposta conhecida por chat control. Se houver votação, votarei contra”, declarou através das redes sociais. “E se for Presidente da República pressionarei o governo para travar esta loucura da Comissão Europeia”, anunciou na altura em que estava no processo de recolha de assinaturas para a candidatura à Presidência da República.

https://twitter.com/LiberalPT/status/1956317179336442207

Também António Tânger Corrêa, do Chega, já se mostrou contra o regulamento. Numa publicação no Facebook, revelou em agosto que recebeu “centenas de mensagens a protestar contra a eventual aprovação do chamado chat control (…)”. “Gostaria de clarificar que sou o responsável dos Patriots por este assunto e conto com o apoio do ECR e ESN , o que faz de nós a segunda maior força política no Parlamento Europeu. A decisão final depende do PPE/EPP onde está o PSD/CDS. Simples: se votarem connosco, não passa! Caso contrário serão coniventes com a censura!”

https://twitter.com/tangercorreamep/status/1957850053370167366

Catarina Martins, eurodeputada eleita pelo Bloco de Esquerda, também está contra esta proposta europeia. Numa publicação no Instagram refere que votou contra o tema quando foi presente a votação no Parlamento Europeu, mas que “ainda não passou o perigo”.

“Isto ainda não é lei e, se os governos dos Estados-Membros se posicionarem, podem impedir que o projeto avance”, diz incentivando o contacto dos cidadãos com os representantes no Parlamento Europeu.

O tema também foi ganhando espaço na política nacional. No fim-de-semana passado, Mariana Leitão, líder da Iniciativa Liberal, trouxe o tema à rentrée do ano político, descrevendo o regulamento europeu como um “atentado à liberdade de expressão e privacidade”. A liberal anunciou que o partido vai submeter uma proposta para que o Governo rejeite o regulamento.

https://observador.pt/especiais/mariana-leitao-entra-no-novo-ano-com-ataque-cerrado-ao-governo-e-chega-il-propoe-despedir-quem-esta-a-mais-na-administracao-publica/

O Chega, através do deputado Pedro Frazão, também já se mostrou contra estas regras europeias. Numa publicação em agosto, Frazão publicou no X o “não à maior invasão de privacidade da história da Europa”.

https://twitter.com/Pedro_Frazao_/status/1956026716788240697

Regulamento coloca em causa o sigilo profissional de algumas profissões?

Um dos argumentos usados pelos críticos do regulamento é o de que a análise das comunicações pode ter impacto no sigilo profissional associado a algumas profissões — médicos, advogados ou jornalistas, por exemplo.

A proposta dinamarquesa estabelece algumas exceções no regulamento. Por exemplo, a “deteção não se vai aplicar às contas usadas para propósitos de Estado ou de segurança nacional, para manutenção de lei e ordem ou para propósitos militares”.

Também há mais algumas exceções na proposta. Por exemplo, nos casos em que há “necessidade de preservar informação confidencial, como informação classificada, coberta por segredos profissionais ou de negócio, serviços de comunicação eletrónica que não estão publicamente disponíveis, como aqueles usados para propósitos de segurança nacional, devem ser excluídos do âmbito do regulamento”. “O regulamento também não se aplica aos serviços de comunicações interpessoais que não estão disponíveis para o público em geral e com uso limitado a pessoas envolvidas em atividades de uma empresa em particular, organização, organismo ou autoridade”, é possível ler na proposta.

Contactado pelo Observador a propósito da questão do sigilo profissional, João Massano, bastonário da Ordem dos Advogados (OA), explica que está a acompanhar o tema. “A Ordem dos Advogados considera que os abusos sexuais perpetrados em crianças são crimes particularmente graves e hediondos, pelo que apoia plenamente os objetivos de combate a este crime bem como a adoção de medidas específicas para o prevenir e combater”, diz por escrito.

Porém, a “OA não pode deixar de assinalar as preocupações manifestadas pelo Conselho Europeu para a Proteção de Dados (EDPB) e pela Autoridade ​​Europeia para a Proteção de Dados (EDPS) pelo abalo que o mesmo regulamento terá, na Carta dos Direitos Fundamentais da União Europeia, designadamente no seu artigo 7.º [respeito pela vida privada e familiar]”.

O bastonário refere que o regulamento “gera sérias ameaças sobre o direito à reserva da vida privada e à proteção do segredo profissional”. Do ponto de vista do bastonário, “as salvaguardas necessárias para garantir a proteção dos direitos fundamentais, incluindo a confidencialidade das comunicações entre advogado e cliente, foram totalmente descartadas na proposta, o que é preocupante”.

“A proposta pode ser positiva mas não deve impedir os advogados de protegerem adequadamente a confidencialidade das suas comunicações, através de métodos de encriptação que a tecnologia tem ao nosso dispor”, diz o bastonário. “O legislador da UE deve prever a proteção da chamada “encriptação de ponta a ponta” (“E2EE”) e garantir que as disposições da proposta, não possam enfraquecer de forma alguma essa encriptação.”

Também a Ordem dos Médicos refere estar “a analisar o processo” de discussão sobre este tema, “dada a densidade da regulamentação em apreço”. Em resposta ao Observador, esta entidade refere que, no âmbito do Regulamento de Deontologia Médica da Ordem, já se “pode considerar uma exceção ao dever de sigilo profissional sempre que [um profissional médico] seja chamado a tratar um menor e verifique que estes são vítimas de sevícias, maus-tratos ou assédio”, levando a que se possam “tomar as providências adequadas para os proteger, nomeadamente alertar as autoridades competentes”.

A ordem acompanha o tema através do Conselho Nacional de Ética e Deontologia Médica e “em breve fará chegar ao Governo e aos eurodeputados o seu parecer”.