Google ignoriert Mitarbeitermeuterei und erklärt sich "stolz", KI für Trumps Pentagon zu bauen
Google weist Protest von fast 1.000 Mitarbeitern zurück und erklärt sich stolz, klassifizierte KI für das US-Militär zu liefern. Was steckt hinter dem Kurswechsel?
Google hat ein neues Lieblingswort, und es lautet nicht "nein". Das Unternehmen, das einst versprach, nicht böse zu sein, hat einen offenen Brief von Hunderten eigener Mitarbeiter beiseitegeschoben und erklärt, es sei "stolz", klassifizierte KI-Arbeit für Donald Trumps Pentagon zu leisten. Von Fingerspitzengefühl keine Spur.
Laut einem Bericht von The Independent hat die Google-Führung Bedenken von Mitarbeitern bezüglich der sich vertiefenden Beziehung des Unternehmens zum US-Verteidigungsministerium zurückgewiesen. Der Deal verschafft dem Pentagon Zugang zu Googles KI-Modellen für klassifizierte Militärarbeit, und die Chefetage ist darüber mehr als zufrieden.
Was der Deal konkret beinhaltet
Google ist eines von acht Technologieunternehmen, die ihre KI in die geheimsten Netzwerke des Pentagons einspeisen dürfen. Die vollständige Liste umfasst Google, Microsoft, Amazon Web Services, OpenAI, Nvidia, Oracle, SpaceX und Reflection. Anthropic, das auf Sicherheit ausgerichtete Unternehmen hinter Claude, wurde bezeichnenderweise ausgeschlossen, nachdem es mit dem Label "Lieferkettenrisiko" versehen wurde, eine Einstufung, gegen die es nun vor Gericht vorgeht.
Der Vertrag selbst soll dem Pentagon erlauben, Google-KI für "jeden rechtmäßigen Zweck" zu nutzen, mit Ausnahmen, die angeblich autonome Waffen und Massenüberwachung ausschließen. Zyniker werden bemerken, dass "jeder rechtmäßige Zweck" in diesem Satz eine ganze Menge Arbeit erledigt.
Der Mitarbeiterbrief, der verpuffte
Der interne Widerstand war alles andere als klein. Ein offener Brief an Vorstandsvorsitzenden Sundar Pichai sammelte zunächst mehr als 580 Unterschriften, darunter über 20 Direktoren und Vizepräsidenten sowie leitende Forscher bei Google DeepMind. Diese Zahl wuchs Berichten zufolge auf zwischen 950 und 1.000, als sich die Nachricht verbreitete.
Die Unterzeichner warnten vor "unethischen und gefährlichen Einsatzmöglichkeiten" militärischer KI und drängten die Führung, klassifizierte Verteidigungsverträge abzulehnen. Ein DeepMind-Forscher, Andreas Kirsch, meldete sich auf X zu Wort und erklärte, er sei "sprachlos", und nannte den Deal "beschämend".
Googles Antwort war im Wesentlichen ein höfliches Achselzucken.
Nicht Googles erste Mitarbeitermeuterei
Wer das Gefühl hat, das schon einmal erlebt zu haben, liegt richtig. Im Jahr 2018 unterzeichneten rund 4.000 Mitarbeiter eine Petition gegen Project Maven, das Pentagon-Programm, das Googles KI zur Analyse von Drohnenaufnahmen nutzte. Mindestens ein Dutzend Mitarbeiter kündigte. Google lenkte ein, verlängerte den Vertrag nicht und ließ ihn im März 2019 stillschweigend auslaufen.
Darauf folgte ein abgeschwächtes KI-Regelwerk mit dem Versprechen, keine Waffen oder Überwachungswerkzeuge zu bauen, die internationale Normen verletzten. Es war ein Moment des unternehmerischen Gewissens, oder zumindest eine überzeugende Impression davon.
Dieser Moment überlebte eine zweite Trump-Regierung nicht. Kurz nach dem Wahlergebnis 2024 überarbeitete Google seine KI-Grundsätze und strich das ausdrückliche Verbot von Waffenarbeit stillschweigend heraus. Das Feigenblatt, so stellt sich heraus, war maschinenwaschbar.
Warum die Kehrtwende jetzt?
Die ehrliche Antwort lautet: Geld und Schwung. Google hat seinen Gemini-KI bereits an rund drei Millionen Pentagon-Mitarbeiter ausgeliefert und hält einen Teil des 9-Milliarden-Dollar-Vertrags Joint Warfighting Cloud Capability. Den klassifizierten Bereich zu verlassen würde bedeuten, einen riesigen Geldbeutel liegen zu lassen, während Microsoft, Amazon und OpenAI ihn bereitwillig aufheben.
Pentagon-KI-Chef Cameron Stanley sagte gegenüber CNBC, dass die Abhängigkeit von einem einzigen KI-Modell "niemals eine gute Sache" sei, und verkleidete den Multi-Anbieter-Ansatz als strategische Absicherung. Übersetzung: Verträge verteilen, Abhängigkeiten verteilen, und jeden Big-Tech-Chef auf freundschaftlicher Vornamen-Basis halten.
Selektive Ethik oder nur selektives PR?
Hier wird es interessant. Laut Tom's Hardware hat Google gleichzeitig ein separates 100-Millionen-Dollar-Drohnenschwarm-Programm abgelehnt. Das Unternehmen ist also bereit, eine Grenze zu ziehen, nur nicht bei klassifizierter KI für das Pentagon.
Das legt zwei Schlüsse nahe. Entweder hat Google einen präzisen, durchdachten ethischen Rahmen, den es der Öffentlichkeit bewusst vorenthält, oder es improvisiert unterwegs basierend darauf, welche Verträge die schlechtesten Schlagzeilen erzeugen. Raten Sie mal, welche Erklärung plausibler klingt.
Warum das für Leser in Deutschland relevant ist
Die Versuchung, dies als "amerikanisches Problem" abzuhaken, ist verständlich. Aber widerstehen Sie ihr. Die KI-Modelle, die klassifizierte US-Militärsysteme antreiben, sind dieselben Allzweckmodelle, die in Ihren Posteingang, Ihr Smartphone, Ihren Arbeitsplatz und zunehmend in die Hausaufgaben Ihrer Kinder eingewoben werden.
Die Grenze zwischen Verbraucher-KI und militärischer KI ist eine politische Entscheidung, keine technische. Wenn sich diese Grenze verschiebt, verschiebt sie sich für alle. Auch die europäische Verteidigungsbeschaffung stützt sich stark auf dieselben amerikanischen Anbieter, was bedeutet, dass Entscheidungen in Mountain View ihren Weg nach Berlin oder Brüssel finden.
Dann ist da noch die Frage des Präzedenzfalls. Sobald ein Unternehmen eine Grenze überschritten hat und festgestellt hat, dass der Aktienkurs nicht eingebrochen ist, bleibt die Grenze in der Regel überschritten. Das heutige "jeder rechtmäßige Zweck" wird zum Maßstab von morgen.
Anthropic und der unbequeme Außenseiter
Außerhalb des Zelts sitzt Anthropic, das Berichten zufolge die Vertragsbedingungen des Pentagons ablehnte und prompt als Lieferkettenrisiko eingestuft wurde. Es gibt unbestätigte Behauptungen, dass das US-Militär Anthropics Claude dennoch im Zusammenhang mit dem Iran-Konflikt eingesetzt hat, was jedoch nicht unabhängig bestätigt wurde und mit Vorsicht zu genießen ist.
Trump selbst hat öffentlich angedeutet, dass Anthropic sich "gut entwickelt", was dem politischen Äquivalent eines Uhrenblicks entspricht. Ob das Unternehmen standhaft bleibt oder sich stillschweigend zurückverhandelt, ist der Nebenplot, den es zu beobachten gilt.
Was man daraus mitnehmen sollte
Googles Botschaft an seine Belegschaft ist deutlich genug. Die Ära, in der ein gut organisierter interner Brief die Richtung des Unternehmens ändern konnte, ist vorbei. Project Maven war 2018. Das neue Drehbuch lautet: den Mitarbeitern für ihr Feedback danken, die KI-Grundsatzseite aktualisieren, und den Vertrag trotzdem unterzeichnen.
Für Nutzer lautet die praktische Lehre: Hören Sie auf anzunehmen, dass das Big-Tech-Unternehmen, dessen Produkte Sie täglich verwenden, Ihre Werte teilt, oder überhaupt stabile Werte hat. Ihre Werte sind das, was das aktuelle politische Klima und der vierteljährliche Gewinnbericht von ihnen verlangen.
Für die Mitarbeiter, die den Brief unterzeichnet haben, ist die schwierigere Frage, was als nächstes zu tun ist. Die Geschichte legt nahe, dass Kündigungen, Lecks und öffentlicher Druck die einzigen Mittel sind, die Google je bewegt haben. Ein scharf formuliertes Memo, leider, steht nicht auf der Liste.
Den Originalartikel lesen Sie bei der Quelle.
