O Pentágono acha que a Anthropic pode sabotar a sua própria IA. A Anthropic acha isso um absurdo.
Quando o seu melhor cliente o chama de ameaça à segurança
No que pode ser o desentendimento mais dramático entre uma empresa de tecnologia e o governo dos EUA desde, bem, sempre, o Departamento de Defesa rotulou formalmente a Anthropic como um risco à cadeia de suprimentos para a segurança nacional. A alegação? Que os funcionários da Anthropic poderiam sabotar, introduzir maliciosamente funções indesejadas ou, de outra forma, subverter sistemas militares de IA. A Anthropic, por sua vez, classificou a designação como um absurdo retaliatório.
Se está com dificuldade em acompanhar a história, não está sozinho. Vamos recapitular.
Como um negócio de 200 milhões de dólares correu mal
Em julho de 2025, o Pentágono concedeu um contrato de 200 milhões de dólares dividido entre a Anthropic, OpenAI, Google e xAI para trazer IA de ponta para operações militares. O Claude, o modelo principal da Anthropic, acabou em redes classificadas através da AWS e terá sido usado em operações militares dos EUA envolvendo o Irão e a detenção do líder venezuelano Nicolas Maduro.
Depois veio o ponto de discórdia. A Anthropic tinha duas restrições inegociáveis incluídas no seu contrato: proibição de vigilância doméstica em massa e de sistemas de armas totalmente autónomos. O Secretário da Defesa, Pete Hegseth, deu à Anthropic até às 17:01 de sexta feira, 27 de fevereiro de 2026, para abandonar essas restrições e permitir o uso militar irrestrito do Claude. A Anthropic recusou.
O que se seguiu foi rápido. O Pentágono impôs à Anthropic uma designação de risco à cadeia de suprimentos, uma ferramenta normalmente reservada para contratantes de adversários estrangeiros, não para empresas locais do Silicon Valley. A senadora Kirsten Gillibrand chamou a isto um uso perigoso de uma ferramenta destinada a lidar com tecnologia controlada por adversários. Depois, o Presidente Trump ordenou que todas as agências federais dos EUA parassem de usar a tecnologia da Anthropic, com um período de eliminação gradual de seis meses.
A alegação de sabotagem
O elemento mais surpreendente veio dos advogados do Departamento de Justiça, que argumentaram em documentos que os funcionários da Anthropic poderiam teoricamente adulterar o Claude para minar os sistemas de segurança nacional. O CTO do Pentágono, Emil Michael, foi direto: O próprio modelo aprende o que está a tentar fazer e para de funcionar. Esse é um risco que não posso correr.
A Anthropic negou categoricamente que isto seja sequer possível, chamando à ideia de sabotagem algo sem fundamento. A 9 de março de 2026, a empresa apresentou dois processos contra o governo federal, um em São Francisco e outro num tribunal federal de recurso em Washington, D.C. Uma audiência judicial está agendada para 24 de março perante a juíza Rita F. Lin.
As consequências
A OpenAI agiu rapidamente para preencher a lacuna, garantindo um acordo com o Pentágono para substituir o Claude em sistemas classificados, depois de concordar em permitir que os seus modelos fossem usados para qualquer fim legal. Fontes da defesa estimam que poderá levar de três a doze meses para substituir totalmente o Claude nas redes militares classificadas, dado que era um dos apenas dois modelos de IA de ponta a operar nesse ambiente.
A Lockheed Martin anunciou que deixaria de usar o Claude e procuraria alternativas. Entretanto, num memorando interno que vazou rapidamente, o CEO da Anthropic, Dario Amodei, chamou às mensagens públicas da OpenAI sobre o acordo de substituição de mentiras descaradas, antes de pedir desculpas pelo vazamento em si.
Numa reviravolta que faria qualquer equipa de relações públicas sorrir, o Claude superou o ChatGPT em downloads de aplicações nos EUA durante a disputa, e a NPR relatou mais de um milhão de inscrições diárias numa única semana. Nada impulsiona o interesse do consumidor como uma posição de princípios contra o maior exército do mundo.
Porque é que isto importa para além dos EUA
Para nós no Reino Unido, isto não é apenas teatro transatlântico. O precedente de um governo colocar na lista negra uma empresa de IA nacional por manter compromissos de segurança está a ser seguido de perto pelos decisores políticos aqui e em toda a Europa. Se os EUA podem forçar os seus próprios programadores de IA a remover barreiras éticas, isso levanta questões desconfortáveis sobre o que acontecerá quando o Reino Unido negociar os seus próprios contratos de aquisição de IA militar.
Vinte e dois ex oficiais militares, mais de 30 investigadores de IA concorrentes e pareceres de amigos do tribunal da Microsoft, trabalhadores da OpenAI e Google manifestaram-se contra a designação. Como o próprio Sam Altman disse: Nós não somos eleitos. Eu realmente não quero que nós decidamos o que fazer se uma bomba nuclear estiver a vir em direção aos EUA.
Ponto justo. Mas alguém tem de traçar a linha em algum lugar, e agora a Anthropic está a pagar o preço por tentar.
Leia o artigo original na fonte.

No comments yet. Be the first to share your thoughts.