Le Pentagone pense qu'Anthropic pourrait saboter sa propre IA. Anthropic trouve cela absurde.
Quand votre meilleur client vous qualifie de menace pour la sécurité
Dans ce qui pourrait être la rupture la plus spectaculaire entre une entreprise technologique et le gouvernement américain depuis, eh bien, toujours, le département de la Défense a officiellement qualifié Anthropic de risque pour la chaîne d'approvisionnement et la sécurité nationale. L'accusation ? Que le personnel d'Anthropic pourrait saboter, introduire malicieusement des fonctions indésirables ou subvertir les systèmes d'IA militaires. Anthropic, de son côté, a qualifié cette désignation de non-sens en guise de représailles.
Si vous avez du mal à suivre l'intrigue, vous n'êtes pas seul. Rembobinons.
Comment un contrat de 200 millions de dollars a capoté
En juillet 2025, le Pentagone a attribué un contrat de 200 millions de dollars réparti entre Anthropic, OpenAI, Google et xAI pour intégrer l'IA de pointe dans les opérations militaires. Claude, le modèle phare d'Anthropic, s'est retrouvé sur des réseaux classifiés via AWS et aurait été utilisé dans des opérations militaires américaines impliquant l'Iran et l'arrestation du dirigeant vénézuélien Nicolas Maduro.
Puis vint le point de friction. Anthropic avait deux restrictions non négociables intégrées à son contrat : pas de surveillance de masse domestique et pas de systèmes d'armes entièrement autonomes. Le secrétaire à la Défense Pete Hegseth a donné à Anthropic jusqu'au vendredi 27 février 2026 à 17h01 pour supprimer ces restrictions et autoriser une utilisation militaire illimitée de Claude. Anthropic a refusé.
Ce qui a suivi a été rapide. Le Pentagone a infligé à Anthropic une désignation de risque pour la chaîne d'approvisionnement, un outil généralement réservé aux contractants adverses étrangers, et non aux entreprises de la Silicon Valley. La sénatrice Kirsten Gillibrand a qualifié cela de détournement dangereux d'un outil destiné à traiter les technologies contrôlées par des adversaires. Ensuite, le président Trump a ordonné à toutes les agences fédérales américaines de cesser complètement d'utiliser la technologie d'Anthropic, avec une période de transition de six mois.
L'allégation de sabotage
L'élément le plus surprenant est venu des avocats du ministère de la Justice, qui ont soutenu dans des dossiers que les employés d'Anthropic pourraient théoriquement altérer Claude pour saper les systèmes de sécurité nationale. Le directeur de la technologie du Pentagone, Emil Michael, a été direct : Le modèle lui-même apprend ce que vous essayez de faire et il cesse de fonctionner. C'est un risque que je ne peux pas prendre.
Anthropic a fermement nié que cela soit même possible, qualifiant le cadre du sabotage de sans fondement. Le 9 mars 2026, l'entreprise a déposé deux poursuites contre le gouvernement fédéral, l'une à San Francisco et l'autre devant une cour d'appel fédérale à Washington, D.C. Une audience est prévue pour le 24 mars devant la juge Rita F. Lin.
Les retombées
OpenAI a agi rapidement pour combler le vide, obtenant un contrat du Pentagone pour remplacer Claude sur les systèmes classifiés après avoir accepté d'autoriser l'utilisation de ses modèles pour toute fin légale. Des sources de la Défense estiment qu'il pourrait falloir de trois à douze mois pour remplacer complètement Claude sur les réseaux militaires classifiés, étant donné qu'il s'agissait de l'un des deux seuls modèles d'IA de pointe opérant dans cet environnement.
Lockheed Martin a annoncé qu'il cesserait d'utiliser Claude et chercherait des alternatives. Pendant ce temps, dans une note interne qui a rapidement fuité, le PDG d'Anthropic, Dario Amodei, a qualifié les messages publics d'OpenAI concernant l'accord de remplacement de mensonges purs et simples, avant de s'excuser pour la fuite elle-même.
Dans un retournement de situation qui ferait sourire n'importe quelle équipe de relations publiques, Claude a en fait surpassé ChatGPT dans les téléchargements d'applications aux États-Unis pendant le conflit, et NPR a rapporté plus d'un million d'inscriptions quotidiennes en une seule semaine. Rien ne stimule l'intérêt des consommateurs autant qu'une position de principe contre la plus grande armée du monde.
Pourquoi cela compte au-delà des États-Unis
Pour ceux d'entre nous au Royaume-Uni, ce n'est pas seulement du théâtre transatlantique. Le précédent d'un gouvernement mettant sur liste noire une entreprise d'IA nationale pour avoir maintenu ses engagements de sécurité est suivi de près par les décideurs politiques ici et à travers l'Europe. Si les États-Unis peuvent forcer leurs propres développeurs d'IA à supprimer les garde-fous éthiques, cela soulève des questions inconfortables sur ce qui se passera lorsque le Royaume-Uni négociera ses propres contrats d'acquisition d'IA militaire.
Vingt-deux anciens responsables militaires, plus de 30 chercheurs en IA concurrents et des mémoires d'amicus curiae de Microsoft, d'employés d'OpenAI et de Google se sont tous opposés à cette désignation. Comme l'a dit Sam Altman lui-même : Nous ne sommes pas élus. Je ne veux vraiment pas que nous décidions quoi faire si une bombe nucléaire se dirige vers les États-Unis.
Un point juste. Mais quelqu'un doit tracer la ligne quelque part, et en ce moment, Anthropic paie le prix pour avoir essayé.
Lisez l'article original sur source.

No comments yet. Be the first to share your thoughts.