Pentagon uważa, że Anthropic może sabotować własną sztuczną inteligencję. Anthropic twierdzi, że to niedorzeczne.
Kiedy Twój najlepszy klient nazywa Cię zagrożeniem dla bezpieczeństwa
W czymś, co może być najbardziej dramatycznym zerwaniem współpracy między firmą technologiczną a rządem USA od zawsze, Departament Obrony oficjalnie uznał Anthropic za ryzyko dla łańcucha dostaw w kontekście bezpieczeństwa narodowego. Zarzut? Że pracownicy Anthropic mogliby sabotować, złośliwie wprowadzać niepożądane funkcje lub w inny sposób podważać wojskowe systemy sztucznej inteligencji. Anthropic ze swojej strony nazwało to oznaczenie odwetowym nonsensem.
Jeśli trudno Ci się połapać w tej intrydze, nie jesteś sam. Cofnijmy się nieco.
Jak kontrakt na 200 milionów dolarów poszedł w odstawkę
W lipcu 2025 roku Pentagon przyznał kontrakt o wartości 200 milionów dolarów, rozdzielony między Anthropic, OpenAI, Google i xAI, aby wprowadzić zaawansowaną sztuczną inteligencję do operacji wojskowych. Claude, flagowy model Anthropic, trafił do tajnych sieci za pośrednictwem AWS i był rzekomo wykorzystywany w operacjach wojskowych USA związanych z Iranem oraz aresztowaniem wenezuelskiego przywódcy Nicolasa Maduro.
Potem pojawił się punkt sporny. Anthropic miało dwa nienegocjowalne ograniczenia zawarte w kontrakcie: brak masowej inwigilacji krajowej i brak w pełni autonomicznych systemów uzbrojenia. Sekretarz obrony Pete Hegseth dał Anthropic czas do piątku 27 lutego 2026 roku do godziny 17:01 na usunięcie tych ograniczeń i zezwolenie na nieograniczone wykorzystanie wojskowe Claude. Anthropic odmówiło.
Odpowiedź była błyskawiczna. Pentagon nałożył na Anthropic oznaczenie ryzyka dla łańcucha dostaw, narzędzie zazwyczaj zarezerwowane dla wykonawców będących zagranicznymi przeciwnikami, a nie dla rodzimych firm z Doliny Krzemowej. Senator Kirsten Gillibrand nazwała to niebezpiecznym nadużyciem narzędzia mającego przeciwdziałać technologiom kontrolowanym przez wrogów. Następnie prezydent Trump nakazał wszystkim agencjom federalnym USA całkowite zaprzestanie korzystania z technologii Anthropic, z sześciomiesięcznym okresem wygaszania.
Zarzut sabotażu
Najbardziej zdumiewający element pochodził od prawników Departamentu Sprawiedliwości, którzy w pismach procesowych argumentowali, że pracownicy Anthropic mogliby teoretycznie manipulować modelem Claude, aby podważyć systemy bezpieczeństwa narodowego. CTO Pentagonu, Emil Michael, ujął to dosadnie: Model sam uczy się, co próbujesz zrobić, i przestaje działać. To ryzyko, którego nie mogę podjąć.
Anthropic stanowczo zaprzecza, by było to w ogóle możliwe, nazywając oskarżenia o sabotaż bezpodstawnymi. 9 marca 2026 roku firma złożyła dwa pozwy przeciwko rządowi federalnemu, jeden w San Francisco, a drugi w federalnym sądzie apelacyjnym w Waszyngtonie. Rozprawa sądowa zaplanowana jest na 24 marca przed sędzią Ritą F. Lin.
Skutki
OpenAI szybko wkroczyło, by wypełnić lukę, zabezpieczając umowę z Pentagonem na zastąpienie Claude w tajnych systemach po tym, jak zgodziło się na wykorzystywanie swoich modeli do dowolnego zgodnego z prawem celu. Źródła wojskowe szacują, że pełne zastąpienie Claude w tajnych sieciach wojskowych może potrwać od trzech do dwunastu miesięcy, biorąc pod uwagę, że był to jeden z zaledwie dwóch zaawansowanych modeli AI działających w tym środowisku.
Lockheed Martin ogłosił, że przestanie korzystać z Claude i poszuka alternatyw. Tymczasem w wewnętrznej notatce, która szybko wyciekła, CEO Anthropic, Dario Amodei, nazwał publiczny przekaz OpenAI wokół umowy zastępczej zwykłymi kłamstwami, po czym przeprosił za sam wyciek.
W zwrocie akcji, który ucieszyłby każdy zespół PR, Claude wyprzedził ChatGPT w liczbie pobrań aplikacji w USA podczas trwania sporu, a NPR poinformowało o ponad milionie codziennych rejestracji w ciągu jednego tygodnia. Nic tak nie napędza zainteresowania konsumentów jak pryncypialne stanowisko wobec największej armii świata.
Dlaczego to jest ważne poza USA
Dla nas w Wielkiej Brytanii to nie tylko transatlantycki teatr. Precedens, w którym rząd umieszcza na czarnej liście krajową firmę AI za utrzymywanie zobowiązań w zakresie bezpieczeństwa, jest uważnie obserwowany przez decydentów tutaj i w całej Europie. Jeśli USA mogą zmusić własnych twórców AI do usunięcia etycznych zabezpieczeń, rodzi to niewygodne pytania o to, co się stanie, gdy Wielka Brytania będzie negocjować własne umowy na zakup wojskowej sztucznej inteligencji.
Dwudziestu dwóch byłych urzędników wojskowych, ponad 30 badaczy AI od konkurencji oraz opinie amicus curiae od Microsoftu, pracowników OpenAI i Google sprzeciwiły się temu oznaczeniu. Jak ujął to sam Sam Altman: Nie zostaliśmy wybrani. Naprawdę nie chcę, abyśmy to my decydowali, co robić, jeśli w stronę USA leci głowica nuklearna.
Słuszna uwaga. Ale ktoś musi gdzieś postawić granicę, a w tej chwili Anthropic płaci cenę za próbę jej wyznaczenia.
Przeczytaj oryginalny artykuł na stronie źródłowej.

No comments yet. Be the first to share your thoughts.