Imagine-se a contratação de um advogado para representação do cliente em juízo e, numa peça processual por este redigida, constam diversas decisões de tribunais superiores que nunca existiram, produto de uma alucinação da IA. Deverá ser assacada responsabilidade à tecnologia ou a quem a utilizou?
Em 1983, o músico António Variações lançou o álbum Anjo da Guarda, onde recuperou a expressão popular quando a cabeça não tem juízo, o corpo é que paga. Volvidos mais de quarenta anos o adágio permanece atual e categoricamente rico em sabedoria.
Em fevereiro de 2026, o Tribunal da Relação de Guimarães (TRG) deu a conhecer um acórdão em que, alegadamente, o mandatário de uma das partes terá recorrido à IA para invocar jurisprudência inexistente.
Não foi o primeiro caso em que tal sucedeu. Em 2023, nos EUA, no processo Mata v. Avianca, Inc., apurou-se que os mandatários do autor tinham apresentado uma peça processual contendo jurisprudência fictícia gerada pelo ChatGPT. Em maio de 2025, o Tribunal de Recurso do Utah condenou um advogado que apresentou precedentes falsos gerados através de IA, após o seu assistente jurídico ter utilizado o ChatGPT na pesquisa e o mandatário não ter verificado o conteúdo da peça antes de a submeter. Mais recentemente, em fevereiro de 2026, o Tribunal Federal de Recurso do 5.º Circuito, em Nova Orleães, condenou uma mandatária ao pagamento de uma coima por idêntica razão, agravada pelo facto de esta ter inicialmente negado o uso de IA perante o tribunal.
Mas esta realidade não se subsume apenas a advogados. Também em Portugal um acórdão do Tribunal da Relação de Lisboa gerou debate público, após alegações de que teriam sido citadas normas e jurisprudência inexistentes, tendo sido levantada a hipótese, não confirmada, de utilização de IA na elaboração da decisão.
Não é novo que o uso desta tecnologia comporta riscos e, por esse motivo, o legislador europeu consagrou no art. 4.º do Regulamento (UE) 2024/1689, de 13 de junho de 2024, a obrigação de literacia no domínio da IA. Ainda que o artigo não seja diretamente aplicável a utilizadores individuais, o espírito normativo é claro. Quem utiliza sistemas de IA deve conhecer as suas limitações e não lhes atribuir uma fidedignidade e autenticidade que não possuem. Isto porque os sistemas de IA são modelos de linguagem que geram texto com base em padrões estatísticos e, quando confrontados com lacunas de informação, podem produzir conteúdo factualmente inexato, chamando-se a esse fenómeno de alucinação.
Regressando ao caso português, o TRG julgou o recurso improcedente (decisão não relacionada com a alucinação da IA), condenou a parte em custas judiciais e determinou a remessa de uma cópia do acórdão para a Ordem dos Advogados. O Estatuto da Ordem dos Advogados determina que os advogados devem deter competências técnicas no exercício do mandato (art. 98.º), atuar com lealdade para com os tribunais (art. 108.º), exercer o patrocínio dentro dos limites da lei e da urbanidade (art. 110.º) e, em termos gerais, estudar com cuidado e tratar com zelo as questões de que sejam incumbidos (art. 100.º).
Para além da responsabilidade disciplinar, poderá ainda estar em causa a aplicação do instituto da responsabilidade civil profissional do advogado.
O enquadramento jurídico destes episódios demonstra que a tecnologia desloca o risco da prática de danos para a esfera de quem a utiliza. A sua utilização diligente exige, pois, a verificação das fontes invocadas e do output gerado. A IA pode sugerir argumentos, mas não assume qualquer responsabilidade sobre os mesmos.
No final de contas, a sabedoria popular tradicional continua a recordar-nos que, mesmo na era da IA, quando a cabeça não tem juízo, o corpo é que paga.