(c) 2023 am|dev

(A) :: Entre linhas vermelhas e poder: quem controla a inteligência artificial?

Entre linhas vermelhas e poder: quem controla a inteligência artificial?

O conflito não é entre ética e militarização, mas entre diferentes centros de poder que disputam quem define os limites da utilização da tecnologia.

João Leitão Figueiredo e Sara Rocha
text

O recente conflito entre a Anthropic e o governo dos Estados Unidos tem sido apresentado como um momento de rutura: uma empresa tecnológica a traçar linhas vermelhas face à utilização da sua tecnologia em contexto de defesa, e um Estado a reagir, pressionando e limitando o seu acesso a contratos públicos. A leitura mais imediata é a de um choque entre ética empresarial e interesses de segurança nacional. Mas essa narrativa, apesar de apelativa, é simplista.

Na realidade, este caso não abre nenhuma “caixa de Pandora”. A caixa já estava aberta. Estados sempre procuraram controlar tecnologias críticas e mobilizar entidades privadas quando estas se tornam essenciais para a sua capacidade de ação. A novidade está noutro plano: pela primeira vez, uma empresa de inteligência artificial relevante desafia, de forma visível, a extensão desse poder.

Importa, no entanto, não romantizar esta posição. Empresas como a Anthropic não operam fora do ecossistema de defesa. Pelo contrário, crescem muitas vezes em proximidade com esse ecossistema, beneficiando de financiamento, contratos e acesso privilegiado a recursos. O conflito não é, portanto, entre ética e militarização, mas entre diferentes centros de poder que disputam quem define os limites da utilização da tecnologia.

E esses limites tornaram-se particularmente sensíveis no contexto da inteligência artificial. Ao contrário de outras infraestruturas estratégicas, a IA tem um impacto transversal: influencia decisões públicas, molda informação, afeta direitos fundamentais e pode ser utilizada tanto para fins benignos como para aplicações altamente controversas. É precisamente esta natureza dual que torna o debate mais complexo.

Do ponto de vista do Estado, a lógica é clara. Se a inteligência artificial é uma tecnologia crítica, com impacto direto na segurança nacional, então não pode ficar totalmente dependente da vontade de entidades privadas. A história oferece múltiplos exemplos de intervenção estatal em setores estratégicos, especialmente em contextos de conflito ou ameaça: da mobilização da indústria do aço e da energia em contexto de guerra, ao controlo da tecnologia nuclear durante a Guerra Fria. A diferença está no objeto, não na lógica. Sob este prisma, exigir colaboração a empresas tecnológicas não é uma exceção, mas uma continuidade.

No entanto, esta leitura levanta uma questão essencial: até que onde pode o Estado ir? A legitimidade da intervenção pública não decorre apenas do objetivo, por mais relevante que este seja, mas também dos limites e dos mecanismos de controlo. Forçar uma empresa a ultrapassar as suas próprias salvaguardas pode significar mais do que reforçar capacidades de defesa. Pode abrir caminho a práticas de vigilância, automatização de decisões críticas ou utilização de sistemas com impacto direto em direitos fundamentais.

O problema não está apenas na possibilidade de intervenção, mas na ausência de uma definição clara sobre onde essa intervenção deve parar. E, mais importante, sobre quem garante que esse limite é respeitado. Num contexto em que a tecnologia evolui mais rapidamente do que os mecanismos de supervisão, existe o risco de o poder se expandir sem o correspondente reforço de controlo democrático.

Este cenário insere-se numa dinâmica mais ampla. Os Estados estão cada vez mais conscientes de que a inteligência artificial não é apenas uma ferramenta, é um ativo estratégico. Como tal, está em curso uma verdadeira corrida global à sua infraestrutura: capacidade computacional, modelos, dados e talento. Os Estados Unidos e a China lideram este processo, investindo massivamente e procurando assegurar controlo sobre as cadeias de valor críticas.

Neste contexto, a dependência de empresas privadas torna-se um fator de vulnerabilidade. Se uma empresa pode recusar colaborar, impor condições ou alinhar-se com interesses distintos, o Estado perde margem de manobra. A resposta tem sido previsível: maior investimento público, maior pressão regulatória e uma tentativa de alinhamento forçado entre interesses públicos e privados.

A Europa, por seu lado, tem adotado uma abordagem distinta. Em vez de competir diretamente ao nível da infraestrutura ou da capacidade tecnológica, tem apostado na regulação, procurando estabelecer padrões e limites através de instrumentos como o AI Act. Essa estratégia tem mérito, mas também limitações evidentes. Regular sem controlar os principais meios de produção tecnológica reduz a capacidade de influência em momentos críticos.

Mais do que um silêncio europeu, o que se observa é uma posição periférica num debate que está a ser definido por outros. A Europa observa, regula e adapta-se, mas dificilmente determina os termos do conflito.

Perante este cenário, é tentador procurar soluções claras: acordos internacionais, princípios éticos comuns ou mecanismos de governação global. No entanto, a realidade é menos linear. A ausência de confiança entre potências, a velocidade de evolução tecnológica e a assimetria de interesses tornam difícil a construção de um regime verdadeiramente eficaz.

O caso Anthropic não é uma exceção. É um sinal de que entrámos numa nova fase na relação entre o Estado e a tecnologia, uma fase em que a questão central já não é o que a tecnologia permite, mas quem decide os seus limites e finalidades. E essa é, no final, uma questão de poder e onde o debate deixa de ser técnico para passar a ser político.