(c) 2023 am|dev

(A) :: Negociações falhadas, insultos e temido risco de segurança nacional. IA abriu fosso entre Anthropic e Pentágono mas foi usada no Irão

Negociações falhadas, insultos e temido risco de segurança nacional. IA abriu fosso entre Anthropic e Pentágono mas foi usada no Irão

A Anthropic é a primeira empresa dos EUA categorizada como um "risco para a cadeia de abastecimento", após ameaça pelo Pentágono. Tudo por causa do uso da IA na área militar, como no ataque ao Irão.

Cátia Rocha
text

O uso de inteligência artificial (IA) para fins militares é um debate que dá pano para mangas. E, nas últimas semanas, a batalha entre a Anthropic e o Pentágono só contribuiu para a escalada da discussão.

A Anthropic, a empresa de IA conhecida pelos modelos e chatbot Claude, fechou no ano passado um contrato para fornecer tecnologia ao Departamento de Defesa dos EUA (batizado por Trump de Departamento de Guerra). A tecnológica liderada por Dario Amodei foi a primeira fornecedora de modelos de IA a ter a sua tecnologia aplicada aos ambientes confidenciais da Defesa norte-americana.

Só que, aqui e ali, foram surgindo sinais de que o fundador da Anthropic estaria a ficar desconfortável com o uso dos modelos para fins militares. Por exemplo, em janeiro, num longo ensaio, afirmou estar preocupado com a forma como a tecnologia pode ser usada para “armamento totalmente automatizado” ou para a “vigilância feita pela IA”

https://observador.pt/2026/01/27/ceo-da-anthropic-volta-a-alertar-para-os-riscos-da-ia-a-humanidade-precisa-de-acordar/

Não foi uma mensagem fora do vulgar para o empresário. Amodei criou a Anthropic, em 2021, depois de bater com a porta da OpenAI, onde chegou a vice-presidente de investigação. Saiu por uma questão de “visão”. “É incrivelmente improdutivo tentar discutir com a visão de outra pessoa”, disse em 2024 numa entrevista. Não mencionou nomes, mas ficou claro que o destinatário era Sam Altman, o CEO da OpenAI. Qual é a diferença entre a visão de Amodei e Altman? A Anthropic centra-se numa suposta visão mais ética da IA, com o argumento de dotar os seus modelos de mais limitações e salvaguardas de segurança em comparação com a concorrência.

Só que, nos bastidores, a Anthropic tentou negociar com o Departamento de Defesa, liderado por Pete Hegseth, algumas linhas vermelhas para limitar a forma como os sistemas da empresa são usados. Entre elas, a rejeição de usar a tecnologia do Claude para vigilância massiva ou em armamento totalmente autónomo, em que não há humanos a dar a ordem final. O New York Times revelou que a exigência da empresa não foi bem recebida pelo Pentágono.

Não foi preciso muito até a pressão à Anthropic se tornar pública, com Hegseth a fazer um ultimato à empresa: se não alterasse a sua posição, o contrato de 200 milhões de dólares assinado com o Pentágono cairia por terra. E mais: a empresa seria classificada como um risco para a cadeia de abastecimento, uma etiqueta que lhe limitaria o negócio e também a interação com outros fornecedores. A Anthropic não cedeu e, esta quinta-feira, enfrentou as consequências: foi formalmente notificada de que será classificada como um risco para a cadeia de abastecimento.

Para Nathan Leamer, o diretor executivo da Build American AI, uma associação focada no futuro da tecnologia nos EUA, e antigo conselheiro da Comissão Federal de Comunicações (FCC), a disputa vai além da tecnologia. “Penso que a luta da Anthropic contra o Departamento de Guerra é, na verdade, consequência de uma disputa política mais ampla nos Estados Unidos”, explica ao Observador. “Trata-se de duas visões concorrentes sobre o futuro da IA. Existe uma espécie de visão de mundo aceleracionista norte-americana, que é muito permissiva, focada em inovação e oportunidades sem restrições. E depois há o outro lado, muito focado em segurança e em mitigar potenciais riscos e ameaças hipotéticas.”

“Basicamente é um retrato do que está a acontecer nos EUA”, notando que, ainda que “as questões levantadas pela Anthropic sejam justas e válidas”, “a autoridade sobre as decisões militares pertence ao comandante-chefe das forças armadas e ao Congresso”. “Acho que a administração fez a coisa certa ao dizer que isto não era uma abordagem sustentável para uma relação” contratual.

Mas também há quem veja muito menos nas entrelinhas. “Não sei até que ponto é que é realmente uma questão relevante”, diz o tecnologista Bruce Schneier. “Está a ser dito que as empresas já não podem usar serviços da Anthropic, que é preciso retirá-los [da infraestrutura tecnológica] dentro de seis meses. Há tanta coisa que vai acontecer nesse tempo, não sei se não é uma questão de aparências e, no fim, nada vai mudar. É esse o meu palpite”, diz ao Observador. “É uma questão 100% política, é bullying”, remata. “A Anthropic está a fazer pose, sabiam no que se estavam a meter ao trabalhar com o Pentágono.”

A fita do tempo da discussão Anthropic vs Pentágono, com insultos ao elogio “ditatorial” a Trump

Foi anunciado em julho de 2025 que o Pentágono adjudicou à Anthropic um contrato de 200 milhões de dólares, o equivalente a 172,8 milhões de euros. Na altura, a empresa explicou que iria “prototipar capacidades de IA de ponta que promovam a segurança nacional dos EUA”. Em comunicado, a tecnológica reconheceu que “tecnologias poderosas acarretam a maior das responsabilidades”. Foi destacado “o compromisso da implementação responsável de IA, incluindo testes de segurança, desenvolvimento colaborativo de governança e políticas restritas de utilização, que fazem com que o Claude esteja unicamente posicionado para usos sensíveis de segurança nacional.” É esse contrato que caiu por terra quando estalou o verniz em público entre a Anthropic e o Pentágono.

Os primeiros sinais sobre instabilidade, percebe-se agora, começaram logo em janeiro, quando Pete Hegseth emitiu um memorando focado no uso de IA nas Forças Armadas. Entre vários temas, sinalizou que o “Departamento também deve utilizar modelos livres de políticas de uso com restrições que possam limitar aplicações militares legais”.

https://twitter.com/DoWCTO/status/1998425731425038408

Nos bastidores, de acordo com o New York Times, as negociações entre a Anthropic e o Pentágono sobre as limitações de uso da IA estariam a decorrer “há meses”. Até que, a meio de fevereiro, estalou o verniz, com uma fonte próxima de Hegseth a avançar ao Axios que o Departamento estaria não só a “rever a relação” com a Anthropic como prestes a declarar o laboratório de IA um “risco para a cadeia de abastecimento”. Segundo o jornal, a equipa de Amodei foi apanhada de surpresa e ter-se-á alinhado para identificar em que ponto é que a relação azedou.

A 19 de fevereiro, Emil Michael, o diretor tecnológico do Pentágono, veio a público pressionar a Anthropic a mudar de posição. Na semana seguinte, a 24 de fevereiro, Pete Hegseth chamou Dario Amodei para uma reunião durante a manhã. Segundo o NYT, a discussão terá sido civilizada, mas quando Amodei se recusou a mudar de ideias, o tom mudou.

No mesmo dia, o Pentágono fez um ultimato à Anthropic para que recuasse nas suas exigências. A empresa tinha até às 17h01 (22h01 horas em Lisboa) de 27 de fevereiro, sexta-feira, para tomar uma decisão. Se não acatasse, seria categorizada como um risco para a cadeia de abastecimento, pondo em jogo o contrato de milhões.

Foram dias de troca de acusações e comunicados. “A Anthropic compreende que é o Departamento de Guerra, e não as empresas privadas, quem toma as decisões militares. Nunca levantámos objeções a operações militares específicas nem tentámos limitar o uso da nossa tecnologia de forma ad hoc”, disse Dario Amodei, a 26 de fevereiro, um dia antes do fim do prazo. “No entanto, num conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos.” E destacou que “alguns usos” da tecnologia “estão simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e fiabilidade”. O líder da Anthropic voltou a falar sobre a limitação da vigilância doméstica massiva e as armas totalmente autónomas.

Dario Amodei respondeu às ameaças da administração Trump, dizendo que “não mudam a posição” da empresa. “Não podemos em boa consciência aceder ao seu pedido”. “Continuamos comprometidos a continuar o nosso trabalho a apoiar a segurança nacional dos EUA."

Amodei explicou que estes dois usos “nunca foram incluídos nos contratos com o Departamento” e que “devem ser incluídos agora”. Afirmou ainda que, ao conhecimento da empresa, “estas duas exceções não têm sido uma barreira para acelerar a adoção e uso” dos modelos nas Forças Armadas até à data.

Respondeu às ameaças, dizendo que “não mudam a posição” da empresa. “Não podemos em boa consciência aceder ao seu pedido”. “Continuamos comprometidos a continuar o nosso trabalho a apoiar a segurança nacional dos EUA.

No dia do fim do prazo, o Presidente dos EUA usou a Truth Social para atacar a Anthropic. “Os EUA nunca vão permitir que uma empresa de esquerda radical, woke dite a forma como o nosso grande exército luta e vence guerras.” Acusou ainda os “loucos de esquerda da Anthropic de terem feito um erro desastroso ao tentarem fazer um braço de ferro com o Departamento de Guerra”.

Trump declarou que o “seu egoísmo está a colocar vidas norte-americanas em risco, as tropas e a segurança nacional em xeque”. E passou ao ataque. “Assim, estou a ordenar que todas as agências federais do governo dos Estados Unidos cessem imediatamente todo o uso da tecnologia da Anthropic”, declarou. “Não precisamos dela, não a queremos e não vamos voltar a fazer negócio com eles.” Explicou que haveria um período de seis meses para gradualmente deixar a tecnologia da empresa das agências do Departamento de Guerra que usam os produtos da Anthropic.

“É melhor que a Anthropic se retrate e seja útil durante este período de transição, ou usarei todo o poder da Presidência para obrigá-los a cumprir, com consequências civis e criminais graves a seguir”, afirmou Trump.

Às 17h14 de 27 de fevereiro, menos de um quarto de hora após o fim do prazo do Pentágono, foi a vez de o Secretário Pete Hegseth atacar a companhia de São Francisco. “Esta semana, a Anthropic deu uma aula de arrogância e traição assim como um exemplo de como não fazer negócio com o governo dos EUA e o Pentágono”, escreveu na rede social X.

Dizendo que o Pentágono “deve ter um acesso total e sem restrições” aos modelos da empresa, acusou a Anthropic e o CEO Dario Amodei de “terem escolhido a duplicidade”. “Envoltos na retórica hipócrita do ‘altruísmo eficaz’, tentaram forçar as Forças Armadas dos Estados Unidos a submeter-se — um ato cobarde de ostentação de virtude corporativa que coloca a ideologia de Silicon Valley acima das vidas norte-americanas“, atirou. Acusou ainda a empresa de ter uma “posição fundamentalmente incompatível com os princípios americanos”.

https://twitter.com/SecWar/status/2027507717469049070

Já após este desfecho, Emil Michael, de 53 anos, escreveu várias publicações na rede social X onde acusou a Anthropic de estar a “mentir” e, em pelo menos duas ocasiões, incentivou a que Amodei fosse “chamado a testemunhar sob juramento sobre as razões pelas quais está a mentir e a tentar causar vergonha ao exército”. Noutra ocasião, afirmou que Amodei tem “um complexo de Deus”. 

https://twitter.com/USWREMichael/status/2028292845329609121

De acordo com a Reuters, o braço de ferro com o Pentágono gerou mal estar entre os investidores da Anthropic. Tanto que Amodei ter-se-á reunido com alguns dos principais investidores da empresa, incluindo Andy Jassy, o CEO da Amazon. Outras fontes relataram à agência que consideram que a postura de Amodei para com o Pentágono é uma “questão de ego e um problema de diplomacia”.

Já esta quinta-feira, pouco menos de uma semana após a decisão de Trump, a administração norte-americana passou das palavras aos atos, notificando formalmente a Anthropic de que é considerada um risco para a segurança nacional. A empresa já declarou que pretende contestar esta decisão nos tribunais. “Não acreditamos que esta ação seja legal e não temos outra alternativa se não desafiá-la em tribunal”, anunciou Amodei em comunicado.

Vários especialistas referem que será mesmo a primeira vez em que é usada esta designação para uma empresa made in USA. “É supostamente inédito aplicar este rótulo a uma empresa sem influência estrangeira maligna”, diz ao Observador Nathan Sanders, cientista de dados, afiliado do Berkman Klein Center para a Internet e Sociedade da Universidade de Harvard e co-autor do livro Rewiring Democracy: How AI Will Transform Our Politics, Government, and Citizenship, em tradução livre, Reestruturando a democracia: como a IA transformará a nossa política, o nosso governo e a nossa cidadania.

“Nunca foi feito antes e quase de certeza é contra a lei”, completa o tecnologista Bruce Schneier, co-autor do livro com Sanders. “Mas isto irá para tribunal. Ninguém sabe bem se [a administração] está a cumprir as regras ou quais são as regras. Mas isso é a maneira de Donald Trump, de fazer bullying.”

Dan Ives, analista da WedBush, escreveu numa nota que a categorização de risco é algo “sem precedentes”. “É essencialmente uma letra escarlate que põe a Anthropic na mesma categoria que uma empresa tecnológica chinesa como a Huawei”, exemplifica. “Isto abre agora uma enorme batalha legal entre a Anthropic e o Pentágono nos tribunais para resolver esta questão que pode ter um efeito de impacto em cascata para a Anthropic e Claude, potencialmente na vertente empresarial nos próximos meses.”

Pelo meio, houve mais um ponto a contribuir para a tensão: uma notícia do The Information, publicada na quarta-feira (4 março), sobre um memorando interno de Amodei sem filtros. Atacou os responsáveis do Pentágono e, principalmente, a OpenAI e o seu rival Sam Altman. “A principal razão pela qual [a OpenAI] aceitou [o acordo com o Departamento de Defesa] e nós não foi que eles estão preocupados em apaziguar os funcionários, enquanto nós nos preocupávamos em evitar abusos”, citou o Information. Também acusou a rival de estar a fazer “um teatro sobre a segurança” e de ter cedido “ao elogio estilo ditador” a Trump.

Entretanto, o CEO da Anthropic pediu desculpa pelo tom inflamado do memorando. “Aquela nota em particular foi escrita horas depois da publicação do Presidente Trump na Truth Social” e do tweet de Pete Hegseth, explicou, concretizando, num comunicado feito a 5 de março, que a tinha escrito seis dias antes, ou seja, sábado 28 de fevereiro, precisamente no dia em que os Estados Unidos e Israel atacaram o Irão.

“Foi um dia difícil para empresa e peço desculpa pelo tom da publicação. Não reflete as minhas opiniões cuidadosas ou ponderadas.” Destacou ainda que “não é do interesse” da empresa “escalar a situação” e que, o facto de ser um memorando da semana passada, faz com que esteja “desatualizado face à situação atual”. Emil Michael, do Pentágono, nega que haja “negociações ativas” com a Anthropic.

https://twitter.com/USWREMichael/status/2029754965778907493

Apesar da proibição, Claude terá sido “central” durante ataque ao Irão

As relações entre a Anthropic e o Pentágono podem ter azedado, mas a IA da empresa terá sido “central” para o ataque do passado sábado ao Irão. A Casa Branca não oficializou o recurso à inteligência artificial da empresa, mas meios como o Wall Street Journal, a Reuters ou o Washington Post avançaram que o Claude foi usado na operação “Epic Fury”. Apenas algumas horas depois de uma publicação de Donald Trump na sua rede social, onde acusou a Anthropic de ser uma “empresa woke” a tentar “ditar como é que o grande exército luta e vence guerras”.

A Anthropic fechou-se em copas sobre o assunto. A informação oficial da empresa mais recente sobre o uso de IA pelo exército é genérica: “(…) apoia os soldados da linha da frente em usos como análises de informação, modelos e simulação, planeamento operacional, operações cibernéticas e mais”, revelou Amodei a 4 de março. 

Uma investigação do Washington Post deu mais algum contexto sobre como pode ter sido usada a tecnologia da Anthropic. Até à discussão com o Pentágono, o Claude estaria a funcionar em conjunto com o sistema Maven, da Palantir. Esta empresa tem estado em destaque na área militar, ao fornecer a diversos exércitos, incluindo ao norte-americano, dados obtidos por diferentes fontes, incluindo satélites. Terão sido esses dados a permitir aos EUA obter uma lista de prioridades de alvos para atacar o Irão, relatou o jornal.

Ao usar os dados do Maven, amparados pelo Claude, os militares terão recebido “sugestões de centenas de alvos, com coordenadas precisas e priorizadas consoante a sua importância”, referiram três fontes ao jornal norte-americano. Terá sido a primeira vez em que o Claude foi usado em grandes operações de guerra, destacaram as fontes.

Apesar de o contrato de 200 milhões de dólares ter sido anunciado em 2025, a Anthropic começou a trabalhar com o Pentágono cerca de um ano antes. O facto de a empresa ter sido a primeira a ter acesso aos ambientes de informação classificada do Pentágono promete trazer dificuldades no gradual abandono da tecnologia da Anthropic.

Ao Observador, Henrique Valente, analista da ActivTrades, refere que, “aos olhos dos investidores, este episódio reforça a ideia de que o setor tecnológico americano está a entrar numa fase de ‘semi-nacionalização estratégica’, com maior intervenção do Estado em áreas críticas como a inteligência artificial e os semicondutores”.

Claude já tinha sido usado na missão para capturar Nicolás Maduro

Antes do Irão, foi noticiado que o Claude foi usado noutra operação: na Venezuela, na missão de captura de Nicolás Maduro, a 3 de janeiro. O recurso às ferramentas de IA da empresa só foi conhecido mais de um mês depois, através de uma notícia do Wall Street Journal.

A Anthropic foi questionada na altura, respondendo apenas que não pode comentar “se o Claude, ou qualquer outro modelo de IA, foi usado em operações específicas, classificadas ou de outro tipo”. “Qualquer uso do Claude — seja no setor privado ou no governo — requer a conformidade com as nossas políticas de utilização, que governam como é que o Claude pode ser implementado.”

Anthropic voltou à mesa das negociações. Ainda é possível fazer as pazes com Hegseth?

Durante a semana, meios como o Financial Times avançaram que a Anthropic teria voltado à mesa de negociações com o Pentágono. Amodei explicou, na informação mais recente, que a empresa está disponível para continuar a trabalhar com o governo. Mas os próximos capítulos desta novela são incertos.

Por um lado, conforme notam especialistas ouvidos pelo Wall Street Journal, o governo norte-americano é um cliente difícil de ignorar devido à sua dimensão. John DiFucci, analista da Guggenheim, estima que o governo federal dos EUA represente entre 8 e 9% dos gastos globais de software. A designação de empresa com risco para a cadeia de abastecimento dificulta ainda mais a vida à Anthropic.

Mas, por outro lado, a tomada de posição contra o governo até pode beneficiar a Anthropic. “Acho que é possível que os benefícios de relações públicas de entrar nesta luta possam ser maiores do que a perda direta de contratos”, admite ao Observador Nathan Sanders. “Como as tecnologias de IA se tornaram rapidamente comoditizadas, é difícil para as empresas diferenciarem as suas ofertas em termos de desempenho”, explica o especialista. “Pode ser mais possível diferenciar com base no marketing e na confiabilidade, mesmo que a base para a confiança seja mais o estilo do que a substância.” Uma ideia que também é realçada por Nathan Leamer, o diretor executivo da Build American AI. “Costuma dizer-se que toda a imprensa é boa imprensa. O facto de terem o nome no mercado, de serem vistos como ‘nunca Trump’… Há uma base de clientes nos EUA que são ‘nunca Trump’, portanto eles estão a falar para essa comunidade.”

Já Nathan Sanders não acredita num cenário em que o Pentágono não leve a água ao seu moinho no que toca ao uso de IA. “Não há nenhum cenário em que o exército não tenha acesso a tecnologia de IA avançada”, refere Sanders. “Há muitas alternativas à Anthropic, incluindo na área de código aberto.”

E em relação à questão da segurança da IA? “Embora seja impossível garantir definitivamente que a tecnologia [da Anthropic] nunca poderá ser utilizada para assassinatos autónomos ou vigilância doméstica em massa, existem várias medidas técnicas que a Anthropic pode adotar para configurar os seus produtos de forma a tentar impedir esses usos”, explica Nathan Sanders.

Nathan Leamer, com a experiência de Washington, nota outro ponto. “Há muitas questões éticas, a 100%, mas nunca vi a Anthropic a fazer lobby no Congresso para mudar as leis de vigilância. Nunca fizeram um esforço para mudar a lei. Nos EUA costumamos dizer que são lágrimas de crocodilo.”

“Amodei está a dizer o que quer defender, mas está a trabalhar com estes parceiros há anos, a desenvolver IA para a Palantir e outras entidades há tanto tempo e nunca ninguém levantou questões sobre a vigilância. Agora, de repente, é um problema.”

Com a Anthropic fora, a OpenAI chegou-se à frente. E depois vieram as críticas e a campanha QuitGPT

O Pentágono foi rápido a encontrar uma solução para assumir o lugar da Anthropic na infraestrutura tecnológica. Apenas algumas horas após a decisão sobre o afastamento da criadora do Claude, a OpenAI anunciou que tinha fechado um acordo com o Departamento liderado por Pete Hegseth.

“Ontem [sexta-feira, 27 de fevereiro] chegámos a um acordo com o Pentágono para a implementação de sistemas de IA avançados em ambientes confidenciais”, anunciou a dona do ChatGPT. Também destacou que tinha estabelecido linhas vermelhas sobre o uso da IA para armas autónomas e vigilância massiva. Foi ainda mencionada a limitação do uso desta tecnologia para “sistemas automáticos de decisão de alto risco”, como sistemas de pontuação social. A OpenAI aproveitou a deixa para criticar “outros laboratórios de IA que reduziram ou removeram as suas salvaguardas de segurança e baseavam-se principalmente em políticas de utilização como suas principais salvaguardas nas implementações de segurança nacional”.

O facto de serem as mesmas exigências feitas pela Anthropic, que a administração norte-americana rejeitou, levantou dúvidas. Altman começou por responder a algumas questões nas redes sociais, mas, já na segunda-feira a empresa voltou a falar sobre o contrato.

Por exemplo, para explicar que foram feitas emendas à linguagem do contrato com o Pentágono, para explicitar que “o sistema de IA não deve ser utilizado intencionalmente para vigilância interna de cidadãos e nacionais dos EUA”. “Para evitar dúvidas, o Departamento entende que essa limitação proíbe o rastreamento, a vigilância ou a monitorização deliberados de pessoas ou cidadãos dos EUA, inclusive por meio da aquisição ou uso de informações pessoais ou identificáveis obtidas comercialmente”, revelou a empresa. Também foi explicitado que os serviços da OpenAI “não serão usados por agências do Departamento de Guerra como a NSA”, a Agência de Segurança Nacional. “Quaisquer serviços para essas agências requerem um novo acordo.”

Na terça-feira, Sam Altman tornou pública a comunicação interna que fez aos funcionários da OpenAI. Além de falar sobre as emendas, defendeu o trabalho com o Pentágono, dizendo que a empresa “quer trabalhar através de processos democráticos”. “Deve ser o governo a tomar decisões-chave sobre a sociedade. Queremos ter uma voz, um lugar à mesa para podermos partilhar a nossa especialização e queremos lutar pelos princípios da liberdade”, explicou na rede social X. Declarou que “há muitas coisas para as quais a tecnologia ainda não está preparada e muitas áreas em que ainda é preciso entender as concessões necessárias para a segurança. Vamos trabalhar nisso, lentamente, com o Departamento de Guerra, com salvaguardas técnicas e outros métodos”.

Mas também admitiu que fez “algo mal”. “Não devíamos ter corrido para divulgar isto na sexta-feira”, logo a seguir às notícias sobre a queda do contrato com a Anthropic. “Estas questões são super complexas e exigem uma comunicação clara.” Altman justificou que a empresa estava “genuinamente interessada em desescalar as coisas e evitar um resultado muito pior”. “Mas acho que assim pareceu só oportunista e descuidado. Foi uma boa experiência de aprendizagem para mim, já que enfrentaremos decisões mais importantes no futuro”, admitiu.

Mesmo com as emendas e o mea culpa, a associação da OpenAI ao Departamento de Defesa não foi bem recebida pelo público. A consultora Sensor Tower avançou que logo no dia a seguir ao anúncio as desinstalações da app do ChatGPT dispararam 295% nos EUA, comparando com o dia anterior. O número saltou à vista, tendo em conta que o ChatGPT tinha, em média, taxas de desinstalação de 9% ao longo dos últimos 30 dias. Em sentido contrário, a 2 de março as instalações da app do Claude nos EUA superaram pela primeira vez as do ChatGPT.

Depois do anúncio da OpenAI com o Pentágono, o movimento QuitGPT, que incentiva o afastamento do ChatGPT, ganhou força. Os criadores dizem-se “gravemente preocupados com a forma como as empresas de IA estão a contribuir para o crescimento do autoritarismo nos EUA”

Mais tarde, surgiu um movimento chamado QuitGPT. “O ChatGPT aceitou o acordo de robôs assassinos de Trump. É altura de sair”, é possível ler no site do movimento organizado por ativistas “gravemente preocupados com a forma como as empresas de IA estão a contribuir para o crescimento do autoritarismo nos EUA”

Quem visita o site é incentivado a juntar-se ao boicote, com três formas de participação: comprometer-se a deixar de usar o ChatGPT, a cancelar uma subscrição paga ou ainda a partilhar informação sobre o boicote com amigos e nas redes sociais. A estimativa é a de que “2,5 milhões de pessoas tenham tomado uma ação como parte do boicote”, entre assinaturas online e partilhas nas redes sociais.

https://twitter.com/katyperry/status/2027619173325553765

O protesto galgou as barreiras do mundo tecnológico, até com nomes da pop, como a cantora Katy Perry, a partilhar nas redes sociais uma captura de ecrã da ativação de uma subscrição do Claude da Anthropic. Em São Francisco, foram organizados protestos à porta dos escritórios da OpenAI e, em sentido contrário, deixadas mensagens de apoio no chão no exterior da sede da Anthropic. “Dão-nos coragem” ou “obrigado Anthropic” escritos a giz eram visíveis em vídeos das redes sociais.

https://twitter.com/roybahat/status/2027455052655534440