(c) 2023 am|dev

(A) :: Tribunal de Nova Iorque decide que conversas com IA podem ser utilizadas como prova em tribunal

Tribunal de Nova Iorque decide que conversas com IA podem ser utilizadas como prova em tribunal

Bradley Heppner, acusado de fraude fiscal, conversou com o chatbot Claude e argumentou que estava protegido pelo direito de confidencialidade. Caso criou debate sobre enquadramento legal da IA.

Madalena Moreira
text

Conversas com um chatbot de Inteligência Artificial (IA) podem ser utilizadas contra um arguido em tribunal? Foi esta a questão com um juiz distrital de Manhattan se confrontou durante um julgamento de um caso de fraude fiscal. O juiz Jed Rakoff decidiu que sim, numa decisão apresentada na passada sexta-feira.

Em causa estava o caso de Bradley Heppner, diretor executivo e fundador da empresa financeira Beneficient, que, no ano passado, foi detido e acusado de fraude fiscal no valor de 150 milhões de dólares, relata a Business Insider. O esquema, levado a cabo entre 2018 e 2021, terá levado à queda da GWG Holdings, uma empresa sediada em Dallas que declarou insolvência em 2022.

O que parece ser apenas mais um caso de um crime de colarinho branco transformou-se num debate sobre o enquadramento legal da IA, depois da entrada em cena de Claude. Trata-se do chabot da Anthropic, utilizado por Heppner para criar múltiplos relatórios sobre o caso e os crimes de que está acusado, que depois entregou aos seus advogados. Durante as buscas no ano passado, o Ministério Público norte-americano obteve um total de 31 documentos que integrou na acusação contra o CEO.

https://observador.pt/2026/01/27/ceo-da-anthropic-volta-a-alertar-para-os-riscos-da-ia-a-humanidade-precisa-de-acordar/

Porém, a defesa de Heppner tentou bloquear a utilização destes documentos em tribunal, alegando que estavam abrangidos pela confidencialidade entre um advogado e o seu cliente.”O sr. Heppner, através de uma ferramenta de IA, preparou relatórios que traçavam uma estratégia de defesa”, pode ler-se nos argumentos da defesa, citados pela publicação. “O objetivo desta preparação era partilhá-los connosco para que pudéssemos discutir a estratégia de defesa”, continuavam.

O argumento não foi aceite pelo magistrado, que argumentou que a informação foi transmitida de livre vontade a terceiros, neste caso uma ferramenta de IA. “Os documentos de IA não são abrangidos pelo privilégio de produto de trabalho e devem ser divulgados”, decidiu Jed Rakoff. A decisão abriu uma discussão sobre a ambiguidade e falta de regulamentação que existe em relação à IA. “Isto é uma chamada de atenção. As ferramentas de IA não são um espaço seguro para os clientes processarem os conselhos da defesa e regurgitar a sua estratégia legal”, ponderou nas suas redes sociais Moish Peltz, advogado especializado em práticas digitais.

[Gregorian Bivolaru dá todos os passos do manual de manipulação. Mas quem vive no interior da seita vai demorar a perceber. Ouça o terceiro episódio de “Os segredos da seita do yoga”, o novo Podcast Plus do Observador. Uma série em seis episódios, narrada pela atriz Daniela Ruah, com banda sonora original de Benjamim. Pode ouvir aqui, no site do Observador, e também na Apple Podcasts, no Spotify e no Youtube Music. E pode ouvir aqui o primeiro episódio e o aqui o segundo.]