A ascensão da inteligência artificial trouxe consigo uma promessa sedutora: decisões mais rápidas, mais eficientes e, em muitos casos, mais “objetivas” do que as humanas. No entanto, essa promessa começa a revelar uma fragilidade estrutural que raramente é discutida com a seriedade necessária: quando a inteligência artificial erra, quem assume a responsabilidade?
A resposta mais honesta é também a mais desconfortável. Não é a máquina. Nunca será.
A inteligência artificial não tem consciência, intenção ou responsabilidade moral. Não pode ser julgada, sancionada ou chamada a responder por decisões erradas. E, no entanto, assistimos a uma crescente tendência para tratar os seus resultados como se fossem neutros, inevitáveis ou até incontestáveis. É aqui que começa o problema.
Vivemos um momento em que decisões críticas estão a ser delegadas a sistemas automatizados. Desde a concessão de crédito até ao diagnóstico médico, passando por processos de recrutamento ou análise de risco, a inteligência artificial tornou-se um intermediário silencioso, mas poderoso. Quando tudo corre bem, é celebrada como símbolo de progresso. Quando corre mal, instala-se um vazio de responsabilidade.
Esse vazio não é acidental. É, em muitos casos, conveniente.
A cadeia de valor da inteligência artificial é complexa. Inclui quem desenvolve os algoritmos, quem fornece os dados, quem integra os sistemas e quem os utiliza no terreno. Perante um erro, cada um destes intervenientes pode alegar que a responsabilidade pertence a outro elo da cadeia. O resultado é uma diluição da responsabilidade que fragiliza não apenas a confiança nas instituições, mas também os próprios fundamentos do Estado de Direito.
Há um risco particularmente perigoso nesta dinâmica: o da desresponsabilização organizacional. Empresas e instituições podem começar a escudar-se na inteligência artificial para justificar decisões erradas, como se estas fossem inevitáveis ou tecnicamente determinadas. A lógica implícita é simples, mas profundamente errada: “não fomos nós, foi o algoritmo”.
Este argumento não pode ser aceite numa sociedade que se pretende democrática e baseada em princípios éticos sólidos. Delegar decisões a máquinas não equivale a transferir responsabilidade. Pelo contrário, implica um reforço dessa responsabilidade.
A introdução de inteligência artificial em processos decisórios exige mais, e não menos, escrutínio. Exige transparência nos modelos utilizados, rigor na validação dos sistemas e, acima de tudo, a existência de um responsável humano claramente identificado. Alguém que possa explicar, justificar e, se necessário, responder pelas consequências.
A regulação europeia tem dado passos importantes neste domínio, ao procurar estabelecer regras para o desenvolvimento e utilização de sistemas de inteligência artificial. No entanto, a eficácia dessas regras dependerá sempre da sua aplicação concreta e da capacidade de evitar zonas cinzentas onde a responsabilidade se dissolve.
O verdadeiro desafio não é tecnológico. É institucional e ético.
Se aceitarmos que a inteligência artificial pode tomar decisões sem que alguém responda por elas, estaremos a abrir a porta a um modelo de governação onde o poder existe sem responsabilidade. E isso não é apenas um problema técnico. É um problema democrático.
A inteligência artificial pode ser uma ferramenta extraordinária. Pode melhorar processos, reduzir erros humanos e aumentar a eficiência. Mas não pode substituir aquilo que nos define enquanto sociedade: a capacidade de assumir responsabilidade pelas nossas decisões.
No final, a questão não é se a inteligência artificial vai cometer erros. Vai, inevitavelmente. A questão é se estamos preparados para garantir que, quando isso acontecer, existe alguém que responde por eles.
Se não estivermos, então o problema não será da inteligência artificial. Será nosso.