Desde que temos memória histórica do funcionamento das sociedades humanas que sabemos que as exigências da guerra impõem à política mudanças por vezes abruptas e profundas. Se, na Atenas do século V a.C., os hoplitas eram, por assim dizer, mais cidadãos do que os outros, a Inglaterra no século XVIII criava leis especiais para proteger a sua construção naval. As revoluções tecnológicas dos últimos 150 anos que alteraram drasticamente a prática da guerra não deixaram de configurar as instituições e a organização da sociedade. Calhou ao nosso tempo testemunhar mais uma extraordinária revolução tecnológica e industrial e, por isso, é sem surpresa que vemos a guerra praticada pelas nações pioneiras adoptar esses triunfos da técnica. Sobretudo as operações militares levadas a cabo pelos EUA e por Israel no Líbano, na Venezuela e agora no Irão, têm levantado um pouco o véu do que nos reserva um mundo dominado pela Inteligência Artificial.
A Anthropic foi fundada em 2021 por dissidentes de uma das pioneiras deste mercado fabuloso dos chatbots, a OpenAI, cujo produto de massas mais emblemático tornou-se uma metonímia: o ChatGPT. Graças sem dúvida à genialidade do seu líder, Dario Amodei, a Anthropic desenvolveu modelos que em determinados segmentos ultrapassaram toda a concorrência. Foi o caso do Claude cujo desempenho maravilhou os seus utilizadores e, enquanto não for apanhado pelos concorrentes, continua a ter uma vantagem de preferência. Isto mesmo foi reconhecido pelo Departamento da Defesa (entretanto, com Trump, da Guerra) americano ainda no tempo de Joe Biden. O enriquecimento da Anthropic desde essa entrada no mundo da defesa e da guerra tem sido astronómico num mercado já recheado de exemplos de crescimentos empresariais que só podem ser caracterizados como astronómicos.
Amodei introduziu, no entanto, uma inovação quando fundou a Anthropic. Como das suas longas reflexões partilhadas com o resto do mundo com espantosa regularidade resultava a conclusão de que o desenvolvimento da Inteligência Artificial é simultaneamente infinito e perigoso, Amodei decidiu que a actividade comercial da sua empresa devia ser regida por uma “Constituição” interna. À semelhança da Constituição política que a inspira, a “Constituição” da Anthropic impõe um conjunto de princípios ao funcionamento dos sistemas que produz. A finalidade é, como nas Constituições políticas, proteger direitos e instaurar garantias. Mas, tal como as restantes Constituições políticas, também esta é um reflexo de valores morais e políticos com efeitos indirectos nas escolhas políticas quotidianas.
Assim, os sistemas da Anthropic são treinados para respeitar requisitos de segurança como a aceitação de supervisão humana, inibir desonestidade deliberada, agir com ponderação humana de perigo e obedecer sempre às regras específicas da empresa. O risco é está no cenário aterrorizante de a Inteligência Artificial se tornar inteiramente autónoma ou passar a ignorar as preferências humanas, ou o bem-estar dos seus utilizadores. Em concreto, os valores morais desta “Constituição” são os de uma democracia liberal. Vejamos uns exemplos. “Optar pela resposta que mais respeite os direitos humanos, a liberdade, a igualdade universal e a protecção contra a discriminação”. E, em conformidade com o tempo, praticar o relativismo cultural atendendo à sensibilidade dos utilizadores “não-ocidentais”. Em contrapartida, apesar de o seu autor julgar equivocamente que se trata de uma extensão do princípio anterior, é imposto o critério da neutralidade das respostas dadas pelo sistema. Finalmente, e este é o ponto central, a “Constituição” ordena ao Claude que se recuse a cooperar com pedidos ilegítimos como golpes de Estado, criação de armas de destruição massiva ou ataques a infraestruturas críticas das sociedades.
Dir-se-ia que tínhamos o melhor dos mundos possíveis: os benefícios espectaculares da Inteligência Artificial e o seu regramento moral. Mas em breve a harmonia no paraíso se desfez. No dia da captura de Nicolas Maduro, a Anthropic questionou ameaçadoramente o Departamento da Guerra se os recursos do Claude tinham sido usados nessa operação. Imediatamente se pôs em cima da mesa um problema radical: apesar de o Departamento da Guerra estar vinculado à lei americana, produto da vontade democrática dos representantes do povo americano, e de os contratos com a Antrhopic apenas autorizarem o uso legal das suas capacidades, a empresa privada exigiu saber detalhes naturalmente confidenciais das operações para averiguar a compatibilidade com os valores morais da sua “Constituição”. Até porque algo não inscrito na “Constituição”, e que, portanto, ainda não tinha treinado o Claude, aparecia nas objecções da Antrhopic: o Claude não podia ser usado no uso de armas completamente autónomas, nem na vigilância do povo americano.
Dado que os casos concretos dúbios que cabem nestas duas categorias são potencialmente infinitos, o Departamento da Guerra acabou por decidir que a Anthropic não era fiável, revogou os contratos assinados e declarou a empresa um risco de segurança da cadeia de abastecimento das forças armadas americanas, o que a impede de trabalhar para os milhares de fornecedores do Estado americano no domínio da defesa.
A par da guerra em curso no Médio Oriente, o conflito que estalou entre a Anthropic e o Departamento da Guerra prenuncia o futuro da Humanidade. De um lado, uma instituição política com a função de vencer as guerras que politicamente são decididas e que, por isso, procura recolher todas as vantagens tecnológicas que puder contra o inimigo. Do outro, uma empresa fornecedora cujo sucesso do seu produto levou a que o grau de dependência da máquina militar americana relativamente a ela se tornasse crítico. A Anthropic decidiu agora levar o Estado americano, em particular o Departamento da Guerra, a tribunal em protesto por estas decisões.
A partir daí tudo foi arremessado: desde a acusação de sectarismo partidário que inquinava a decisão da Administração Trump até à devolução do insulto a Amodei por este querer definir unilateralmente os parâmetros da acção militar dos EUA em operações que envolvem a vida e a morte – no fundo, ser uma espécie de Secretário da Defesa sem a necessária legitimação democrática. Independentemente da artilharia verbal em exibição, os dilemas que este episódio impõe são incontornavelmente pertinentes.
Como regrar com valores humanos o desenvolvimento de uma tecnologia sem qualquer paralelo com os feitos históricos do passado e que podem muito bem condenar a breve prazo a Humanidade a uma essencial superfluidade? Como conduzir a guerra perante inimigos que estão igualmente investidos em correr depressa nesta competição tecnológica, nunca se tendo a certeza se um possível escrúpulo do nosso lado seria acompanhado pelo escrúpulo universal? Somos conduzidos entre, por um lado, a matéria dos pesadelos de qualquer consciência intacta no poder de um Estado e de um governo para praticar a guerra com instrumentos terríveis e desumanos; e, por outro, o cenário da literatura da ficção científica dos anos 60, 70 e 80 em que a sociedade do futuro é invariavelmente dominada por uma empresa monopolista da tecnologia crucial.
O contexto de uma revolução indomável, rivalidades ideológicas e concorrências geopolíticas não ajuda à promoção da clarividente recomendação que nos foi ensinada há muito tempo. Com a acumulação exorbitante de poder à vista nas instituições políticas e num punhado de empresas privadas, a experiência de todos os tempos e de todos os lugares indica-nos que esse poder será abusado. E será abusado exorbitantemente.