Conversas com um chatbot de Inteligência Artificial (IA) podem ser utilizadas contra um arguido em tribunal? Foi esta a questão com um juiz distrital de Manhattan se confrontou durante um julgamento de um caso de fraude fiscal. O juiz Jed Rakoff decidiu que sim, numa decisão apresentada na passada sexta-feira.
Em causa estava o caso de Bradley Heppner, diretor executivo e fundador da empresa financeira Beneficient, que, no ano passado, foi detido e acusado de fraude fiscal no valor de 150 milhões de dólares, relata a Business Insider. O esquema, levado a cabo entre 2018 e 2021, terá levado à queda da GWG Holdings, uma empresa sediada em Dallas que declarou insolvência em 2022.
O que parece ser apenas mais um caso de um crime de colarinho branco transformou-se num debate sobre o enquadramento legal da IA, depois da entrada em cena de Claude. Trata-se do chabot da Anthropic, utilizado por Heppner para criar múltiplos relatórios sobre o caso e os crimes de que está acusado, que depois entregou aos seus advogados. Durante as buscas no ano passado, o Ministério Público norte-americano obteve um total de 31 documentos que integrou na acusação contra o CEO.
https://observador.pt/2026/01/27/ceo-da-anthropic-volta-a-alertar-para-os-riscos-da-ia-a-humanidade-precisa-de-acordar/
Porém, a defesa de Heppner tentou bloquear a utilização destes documentos em tribunal, alegando que estavam abrangidos pela confidencialidade entre um advogado e o seu cliente.”O sr. Heppner, através de uma ferramenta de IA, preparou relatórios que traçavam uma estratégia de defesa”, pode ler-se nos argumentos da defesa, citados pela publicação. “O objetivo desta preparação era partilhá-los connosco para que pudéssemos discutir a estratégia de defesa”, continuavam.
O argumento não foi aceite pelo magistrado, que argumentou que a informação foi transmitida de livre vontade a terceiros, neste caso uma ferramenta de IA. “Os documentos de IA não são abrangidos pelo privilégio de produto de trabalho e devem ser divulgados”, decidiu Jed Rakoff. A decisão abriu uma discussão sobre a ambiguidade e falta de regulamentação que existe em relação à IA. “Isto é uma chamada de atenção. As ferramentas de IA não são um espaço seguro para os clientes processarem os conselhos da defesa e regurgitar a sua estratégia legal”, ponderou nas suas redes sociais Moish Peltz, advogado especializado em práticas digitais.
[Gregorian Bivolaru dá todos os passos do manual de manipulação. Mas quem vive no interior da seita vai demorar a perceber. Ouça o terceiro episódio de “Os segredos da seita do yoga”, o novo Podcast Plus do Observador. Uma série em seis episódios, narrada pela atriz Daniela Ruah, com banda sonora original de Benjamim. Pode ouvir aqui, no site do Observador, e também na Apple Podcasts, no Spotify e no Youtube Music. E pode ouvir aqui o primeiro episódio e o aqui o segundo.]