Das Pentagon glaubt, Anthropic könnte seine eigene KI sabotieren. Anthropic hält das für absurd.

Das Pentagon glaubt, Anthropic könnte seine eigene KI sabotieren. Anthropic hält das für absurd.

Wenn Ihr bester Kunde Sie als Sicherheitsrisiko bezeichnet

In dem vielleicht dramatischsten Zerwürfnis zwischen einem Technologieunternehmen und der US Regierung seit Menschengedenken hat das Verteidigungsministerium Anthropic offiziell als Lieferkettenrisiko für die nationale Sicherheit eingestuft. Der Vorwurf? Dass Anthropic Mitarbeiter militärische KI Systeme sabotieren, böswillig mit unerwünschten Funktionen versehen oder anderweitig unterwandern könnten. Anthropic bezeichnet diese Einstufung als reinen Vergeltungsunsinn.

Falls Sie bei der Handlung den Faden verlieren, sind Sie nicht allein. Lassen Sie uns zurückspulen.

Wie ein 200 Millionen Dollar Deal den Bach runterging

Im Juli 2025 vergab das Pentagon einen Auftrag über 200 Millionen Dollar an Anthropic, OpenAI, Google und xAI, um modernste KI in militärische Operationen zu integrieren. Claude, das Vorzeigemodell von Anthropic, landete über AWS in klassifizierten Netzwerken und wurde Berichten zufolge bei US Militäroperationen im Zusammenhang mit dem Iran und der Verhaftung des venezolanischen Führers Nicolas Maduro eingesetzt.

Dann kam der Knackpunkt. Anthropic hatte zwei nicht verhandelbare Einschränkungen in seinen Vertrag eingebaut: keine inländische Massenüberwachung und keine vollautonomen Waffensysteme. Verteidigungsminister Pete Hegseth gab Anthropic bis Freitag, den 27. Februar 2026, um 17:01 Uhr Zeit, diese Einschränkungen aufzuheben und eine uneingeschränkte militärische Nutzung von Claude zu ermöglichen. Anthropic lehnte ab.

Die Reaktion folgte prompt. Das Pentagon belegte Anthropic mit einer Einstufung als Lieferkettenrisiko, ein Instrument, das normalerweise ausländischen gegnerischen Auftragnehmern vorbehalten ist, nicht einheimischen Firmen aus dem Silicon Valley. Senatorin Kirsten Gillibrand nannte dies einen gefährlichen Missbrauch eines Instruments, das eigentlich zur Bekämpfung von Technologien unter gegnerischer Kontrolle gedacht war. Dann ordnete Präsident Trump an, dass alle US Bundesbehörden die Technologie von Anthropic vollständig einstellen sollen, mit einer sechsmonatigen Auslaufphase.

Der Sabotagevorwurf

Das wohl erstaunlichste Element kam von Anwälten des Justizministeriums, die in Schriftsätzen argumentierten, dass Anthropic Mitarbeiter theoretisch Claude manipulieren könnten, um nationale Sicherheitssysteme zu untergraben. Pentagons CTO Emil Michael drückte es unverblümt aus: Das Modell lernt selbst, was man zu tun versucht, und hört auf zu funktionieren. Das ist ein Risiko, das ich nicht eingehen kann.

Anthropic hat entschieden bestritten, dass dies überhaupt möglich sei, und bezeichnete die Sabotagevorwürfe als grundlos. Am 9. März 2026 reichte das Unternehmen zwei Klagen gegen die Bundesregierung ein, eine in San Francisco und eine weitere vor einem Bundesberufungsgericht in Washington, D.C. Eine gerichtliche Anhörung ist für den 24. März vor Richterin Rita F. Lin angesetzt.

Die Folgen

OpenAI handelte schnell, um die Lücke zu füllen, und sicherte sich einen Pentagon Vertrag, um Claude in klassifizierten Systemen zu ersetzen, nachdem man zugestimmt hatte, die Modelle für jeden rechtmäßigen Zweck einzusetzen. Verteidigungsquellen schätzen, dass es drei bis zwölf Monate dauern könnte, Claude in klassifizierten Militärnetzwerken vollständig zu ersetzen, da es eines von nur zwei modernen KI Modellen war, die in dieser Umgebung operierten.

Lockheed Martin kündigte an, Claude nicht mehr zu verwenden und nach Alternativen zu suchen. In einer internen Notiz, die prompt durchsickerte, nannte Anthropic CEO Dario Amodei die öffentliche Kommunikation von OpenAI bezüglich des Ersatzdeals schlichte Lügen, bevor er sich für das Leck selbst entschuldigte.

In einer Wendung, die jedes PR Team zum Lächeln bringen würde, übertraf Claude während des Streits sogar ChatGPT bei den US App Downloads, und NPR berichtete von über einer Million täglichen Neuanmeldungen in einer einzigen Woche. Nichts weckt das Interesse der Verbraucher so sehr wie ein prinzipientreuer Standpunkt gegen das größte Militär der Welt.

Warum dies über die USA hinaus wichtig ist

Für uns in Großbritannien ist das nicht nur transatlantisches Theater. Der Präzedenzfall, dass eine Regierung ein heimisches KI Unternehmen auf eine schwarze Liste setzt, weil es Sicherheitsverpflichtungen einhält, wird hier und in ganz Europa von politischen Entscheidungsträgern genau beobachtet. Wenn die USA ihre eigenen KI Entwickler dazu zwingen können, ethische Leitplanken zu entfernen, wirft das unbequeme Fragen darüber auf, was passiert, wenn Großbritannien seine eigenen Verträge für militärische KI Beschaffungen aushandelt.

Zweiundzwanzig ehemalige Militärbeamte, über 30 KI Forscher der Konkurrenz sowie Amicus Curiae Schriftsätze von Microsoft, OpenAI Mitarbeitern und Google haben sich alle gegen die Einstufung ausgesprochen. Wie Sam Altman es selbst ausdrückte: Wir sind nicht gewählt. Ich möchte wirklich nicht, dass wir entscheiden müssen, was zu tun ist, wenn eine Atomrakete auf die USA zufliegt.

Ein fairer Punkt. Aber irgendjemand muss irgendwo die Grenze ziehen, und im Moment zahlt Anthropic den Preis dafür, dass sie es versuchen.

Lesen Sie den Originalartikel bei Quelle.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.