O Pentágono acha que a Anthropic pode sabotar a sua própria IA. A Anthropic acha isso um absurdo.

O Pentágono acha que a Anthropic pode sabotar a sua própria IA. A Anthropic acha isso um absurdo.

Quando o seu melhor cliente o chama de ameaça à segurança

No que pode ser o desentendimento mais dramático entre uma empresa de tecnologia e o governo dos EUA desde, bem, sempre, o Departamento de Defesa rotulou formalmente a Anthropic como um risco à cadeia de suprimentos para a segurança nacional. A alegação? Que os funcionários da Anthropic poderiam sabotar, introduzir maliciosamente funções indesejadas ou, de outra forma, subverter sistemas militares de IA. A Anthropic, por sua vez, classificou a designação como um absurdo retaliatório.

Se está com dificuldade em acompanhar a história, não está sozinho. Vamos recapitular.

Como um negócio de 200 milhões de dólares correu mal

Em julho de 2025, o Pentágono concedeu um contrato de 200 milhões de dólares dividido entre a Anthropic, OpenAI, Google e xAI para trazer IA de ponta para operações militares. O Claude, o modelo principal da Anthropic, acabou em redes classificadas através da AWS e terá sido usado em operações militares dos EUA envolvendo o Irão e a detenção do líder venezuelano Nicolas Maduro.

Depois veio o ponto de discórdia. A Anthropic tinha duas restrições inegociáveis incluídas no seu contrato: proibição de vigilância doméstica em massa e de sistemas de armas totalmente autónomos. O Secretário da Defesa, Pete Hegseth, deu à Anthropic até às 17:01 de sexta feira, 27 de fevereiro de 2026, para abandonar essas restrições e permitir o uso militar irrestrito do Claude. A Anthropic recusou.

O que se seguiu foi rápido. O Pentágono impôs à Anthropic uma designação de risco à cadeia de suprimentos, uma ferramenta normalmente reservada para contratantes de adversários estrangeiros, não para empresas locais do Silicon Valley. A senadora Kirsten Gillibrand chamou a isto um uso perigoso de uma ferramenta destinada a lidar com tecnologia controlada por adversários. Depois, o Presidente Trump ordenou que todas as agências federais dos EUA parassem de usar a tecnologia da Anthropic, com um período de eliminação gradual de seis meses.

A alegação de sabotagem

O elemento mais surpreendente veio dos advogados do Departamento de Justiça, que argumentaram em documentos que os funcionários da Anthropic poderiam teoricamente adulterar o Claude para minar os sistemas de segurança nacional. O CTO do Pentágono, Emil Michael, foi direto: O próprio modelo aprende o que está a tentar fazer e para de funcionar. Esse é um risco que não posso correr.

A Anthropic negou categoricamente que isto seja sequer possível, chamando à ideia de sabotagem algo sem fundamento. A 9 de março de 2026, a empresa apresentou dois processos contra o governo federal, um em São Francisco e outro num tribunal federal de recurso em Washington, D.C. Uma audiência judicial está agendada para 24 de março perante a juíza Rita F. Lin.

As consequências

A OpenAI agiu rapidamente para preencher a lacuna, garantindo um acordo com o Pentágono para substituir o Claude em sistemas classificados, depois de concordar em permitir que os seus modelos fossem usados para qualquer fim legal. Fontes da defesa estimam que poderá levar de três a doze meses para substituir totalmente o Claude nas redes militares classificadas, dado que era um dos apenas dois modelos de IA de ponta a operar nesse ambiente.

A Lockheed Martin anunciou que deixaria de usar o Claude e procuraria alternativas. Entretanto, num memorando interno que vazou rapidamente, o CEO da Anthropic, Dario Amodei, chamou às mensagens públicas da OpenAI sobre o acordo de substituição de mentiras descaradas, antes de pedir desculpas pelo vazamento em si.

Numa reviravolta que faria qualquer equipa de relações públicas sorrir, o Claude superou o ChatGPT em downloads de aplicações nos EUA durante a disputa, e a NPR relatou mais de um milhão de inscrições diárias numa única semana. Nada impulsiona o interesse do consumidor como uma posição de princípios contra o maior exército do mundo.

Porque é que isto importa para além dos EUA

Para nós no Reino Unido, isto não é apenas teatro transatlântico. O precedente de um governo colocar na lista negra uma empresa de IA nacional por manter compromissos de segurança está a ser seguido de perto pelos decisores políticos aqui e em toda a Europa. Se os EUA podem forçar os seus próprios programadores de IA a remover barreiras éticas, isso levanta questões desconfortáveis sobre o que acontecerá quando o Reino Unido negociar os seus próprios contratos de aquisição de IA militar.

Vinte e dois ex oficiais militares, mais de 30 investigadores de IA concorrentes e pareceres de amigos do tribunal da Microsoft, trabalhadores da OpenAI e Google manifestaram-se contra a designação. Como o próprio Sam Altman disse: Nós não somos eleitos. Eu realmente não quero que nós decidamos o que fazer se uma bomba nuclear estiver a vir em direção aos EUA.

Ponto justo. Mas alguém tem de traçar a linha em algum lugar, e agora a Anthropic está a pagar o preço por tentar.

Leia o artigo original na fonte.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.