Os Estados-Membros e o Parlamento Europeu chegaram a acordo na quarta-feira à noite para proibir na União Europeia (UE) os serviços de inteligência artificial (IA) que possam “despir” pessoas sem o seu consentimento.
A iniciativa surge na sequência da introdução, há alguns meses, de uma funcionalidade no Grok, o assistente de IA da rede social X, que permitia aos utilizadores solicitar a criação de montagens hiper-realistas (ou ‘deepfakes’) de adultos e crianças nus a partir de fotografias reais, sem o seu consentimento.
O caso gerou indignação em muitos países e levou a UE a abrir uma investigação.
Na terça-feira, a primeira-ministra italiana, Giorgia Meloni, condenou veementemente as fotos falsas de si própria geradas por IA, classificando os ‘deepfakes’ como uma “ferramenta perigosa”.
De acordo com o Parlamento Europeu, a nova proibição visa sistemas que possam criar imagens, vídeos e sons de natureza pornográfica com crianças, ou representações das partes íntimas de uma pessoa identificável, ou imagens dessa pessoa envolvida em atividade sexual, sem o seu consentimento.
As novas regras entrarão em vigor em 02 de dezembro. A partir dessa data, os sistemas de IA deverão estar equipados com medidas de segurança que os impeçam de gerar este tipo de conteúdo.
A medida foi adotada no âmbito de uma revisão da legislação europeia sobre a IA, ou Lei da IA, uma lei pioneira formalmente aprovada há dois anos.
Nessa ocasião, os 27 Estados-Membros e os eurodeputados acordaram ainda, conforme proposto pela Comissão Europeia, adiar a entrada em vigor de novas regras destinadas a regular a atividade dos chamados sistemas de IA de alto risco, ou seja, aqueles que operam em áreas sensíveis como a segurança, a saúde ou os direitos fundamentais.
As regras deveriam entrar em vigor já em agosto, mas a Comissão quis dar mais tempo às empresas para se adaptarem ao novo quadro.
A principal alteração em relação à proposta da Comissão é que os Estados-Membros e os eurodeputados adotaram datas fixas para o adiamento, enquanto Bruxelas tinha proposto um calendário mais flexível.
As novas datas são 2 de dezembro de 2027 para os sistemas “autónomos” de alto risco e 02 de agosto de 2028 para os sistemas integrados noutros programas ou produtos.
O acordo foi alcançado numa altura em que as preocupações com os riscos associados à IA voltaram à discussão na UE nas últimas semanas devido ao Mythos, o novo modelo da ‘startup’ norte-americana Anthropic.
A Anthopic decidiu não disponibilizar o Mythos ao público em geral, mas apenas a um grupo restrito de empresas norte-americanas, devido à excecional capacidade do modelo de identificar vulnerabilidades críticas de programação, que poderiam desencadear uma crise de cibersegurança.
[Ao décimo dia em Nova Iorque dá-se o homicídio brutal. As últimas horas, o que aconteceu no quarto 3416 e a confissão de Renato sobre como matou Carlos Castro. O acesso aos ficheiros da investigação permite reconstituir toda a investigação ao crime. Ouça o quinto episódio de “Os ficheiros do caso Carlos Castro”, o novo Podcast Plus do Observador, narrado pela atriz Joana Santos, com banda sonora original de Júlio Resende. Pode ouvir aqui, no site do Observador, e também na Apple Podcasts, no Spotify e no Youtube Music. E pode ouvir também aqui o primeiro episódio, aqui o segundo, aqui o terceiro episódio e aqui o quarto episódio]
