(c) 2023 am|dev

(A) :: O algoritmo não vai a tribunal

O algoritmo não vai a tribunal

O argumento não pode ser aceite numa sociedade que se pretende democrática e baseada em princípios éticos sólido: delegar decisões a máquinas não equivale a transferir responsabilidade.

Álvaro Rocha
text

A ascensão da inteligência artificial trouxe consigo uma promessa sedutora: decisões mais rápidas, mais eficientes e, em muitos casos, mais “objetivas” do que as humanas. No entanto, essa promessa começa a revelar uma fragilidade estrutural que raramente é discutida com a seriedade necessária: quando a inteligência artificial erra, quem assume a responsabilidade?

A resposta mais honesta é também a mais desconfortável. Não é a máquina. Nunca será.

A inteligência artificial não tem consciência, intenção ou responsabilidade moral. Não pode ser julgada, sancionada ou chamada a responder por decisões erradas. E, no entanto, assistimos a uma crescente tendência para tratar os seus resultados como se fossem neutros, inevitáveis ou até incontestáveis. É aqui que começa o problema.

Vivemos um momento em que decisões críticas estão a ser delegadas a sistemas automatizados. Desde a concessão de crédito até ao diagnóstico médico, passando por processos de recrutamento ou análise de risco, a inteligência artificial tornou-se um intermediário silencioso, mas poderoso. Quando tudo corre bem, é celebrada como símbolo de progresso. Quando corre mal, instala-se um vazio de responsabilidade.

Esse vazio não é acidental. É, em muitos casos, conveniente.

A cadeia de valor da inteligência artificial é complexa. Inclui quem desenvolve os algoritmos, quem fornece os dados, quem integra os sistemas e quem os utiliza no terreno. Perante um erro, cada um destes intervenientes pode alegar que a responsabilidade pertence a outro elo da cadeia. O resultado é uma diluição da responsabilidade que fragiliza não apenas a confiança nas instituições, mas também os próprios fundamentos do Estado de Direito.

Há um risco particularmente perigoso nesta dinâmica: o da desresponsabilização organizacional. Empresas e instituições podem começar a escudar-se na inteligência artificial para justificar decisões erradas, como se estas fossem inevitáveis ou tecnicamente determinadas. A lógica implícita é simples, mas profundamente errada: “não fomos nós, foi o algoritmo”.

Este argumento não pode ser aceite numa sociedade que se pretende democrática e baseada em princípios éticos sólidos. Delegar decisões a máquinas não equivale a transferir responsabilidade. Pelo contrário, implica um reforço dessa responsabilidade.

A introdução de inteligência artificial em processos decisórios exige mais, e não menos, escrutínio. Exige transparência nos modelos utilizados, rigor na validação dos sistemas e, acima de tudo, a existência de um responsável humano claramente identificado. Alguém que possa explicar, justificar e, se necessário, responder pelas consequências.

A regulação europeia tem dado passos importantes neste domínio, ao procurar estabelecer regras para o desenvolvimento e utilização de sistemas de inteligência artificial. No entanto, a eficácia dessas regras dependerá sempre da sua aplicação concreta e da capacidade de evitar zonas cinzentas onde a responsabilidade se dissolve.

O verdadeiro desafio não é tecnológico. É institucional e ético.

Se aceitarmos que a inteligência artificial pode tomar decisões sem que alguém responda por elas, estaremos a abrir a porta a um modelo de governação onde o poder existe sem responsabilidade. E isso não é apenas um problema técnico. É um problema democrático.

A inteligência artificial pode ser uma ferramenta extraordinária. Pode melhorar processos, reduzir erros humanos e aumentar a eficiência. Mas não pode substituir aquilo que nos define enquanto sociedade: a capacidade de assumir responsabilidade pelas nossas decisões.

No final, a questão não é se a inteligência artificial vai cometer erros. Vai, inevitavelmente. A questão é se estamos preparados para garantir que, quando isso acontecer, existe alguém que responde por eles.

Se não estivermos, então o problema não será da inteligência artificial. Será nosso.