Пентагон вважає, що Anthropic може саботувати власний ШІ. В Anthropic вважають це абсурдом.

Пентагон вважає, що Anthropic може саботувати власний ШІ. В Anthropic вважають це абсурдом.

Коли ваш найкращий клієнт називає вас загрозою безпеці

У тому, що можна назвати найдраматичнішим розривом стосунків між технологічною компанією та урядом США, Міністерство оборони офіційно визнало Anthropic "ризиком для ланцюга постачання" національної безпеки. У чому звинувачення? У тому, що співробітники Anthropic можуть "вчинити саботаж, зловмисно впровадити небажані функції або іншим чином підірвати" військові ШІ системи. Anthropic, зі свого боку, назвала це визначення безглуздою помстою.

Якщо ви намагаєтеся зрозуміти суть справи, ви не самотні. Давайте повернемося назад.

Як угода на 200 мільйонів доларів пішла не за планом

Ще в липні 2025 року Пентагон уклав контракт на 200 мільйонів доларів між Anthropic, OpenAI, Google та xAI для впровадження передового ШІ у військові операції. Claude, флагманська модель Anthropic, потрапила до секретних мереж через AWS і, як повідомляється, використовувалася у військових операціях США, пов'язаних з Іраном та арештом венесуельського лідера Ніколаса Мадуро.

Потім виникла проблема. Anthropic мала дві обов'язкові умови, закріплені в контракті: жодного масового стеження за громадянами та жодних повністю автономних систем озброєння. Міністр оборони Піт Гегсет давав Anthropic час до 17:01 п'ятниці 27 лютого 2026 року, щоб скасувати ці обмеження та дозволити необмежене військове використання Claude. Anthropic відмовилася.

Наслідки були швидкими. Пентагон наклеїв на Anthropic ярлик ризику для ланцюга постачання — інструмент, який зазвичай зарезервований для підрядників іноземних супротивників, а не для місцевих фірм із Кремнієвої долини. Сенаторка Кірстен Джіллібранд назвала це "небезпечним зловживанням інструментом, призначеним для боротьби з технологіями під контролем ворожих держав". Потім президент Трамп наказав усім федеральним агентствам США повністю припинити використання технологій Anthropic із шестимісячним періодом поступового виведення з експлуатації.

Заява про саботаж

Найбільш приголомшливий елемент надійшов від адвокатів Міністерства юстиції, які в документах стверджували, що співробітники Anthropic теоретично можуть маніпулювати Claude, щоб підірвати системи національної безпеки. Технічний директор Пентагону Еміль Майкл висловився прямо: "Сама модель дізнається, що ви намагаєтеся зробити, і перестає працювати. Це ризик, на який я не можу піти".

Anthropic рішуче заперечила, що це взагалі можливо, назвавши версію про саботаж безпідставною. 9 березня 2026 року компанія подала два позови проти федерального уряду: один у Сан-Франциско, інший — до федерального апеляційного суду у Вашингтоні. Судове засідання призначено на 24 березня під головуванням судді Ріти Ф. Лін.

Наслідки

OpenAI швидко скористалася ситуацією, забезпечивши угоду з Пентагоном про заміну Claude у секретних системах після того, як погодилася дозволити використання своїх моделей "для будь-яких законних цілей". Військові джерела оцінюють, що для повної заміни Claude у секретних мережах знадобиться від трьох до дванадцяти місяців, враховуючи, що це була одна з двох передових моделей ШІ, що працювали в цьому середовищі.

Lockheed Martin оголосила, що припинить використання Claude і шукатиме альтернативи. Тим часом у внутрішній записці, яка оперативно потрапила в мережу, генеральний директор Anthropic Даріо Амодеї назвав публічні заяви OpenAI щодо угоди про заміну "відвертою брехнею", а потім вибачився за сам факт витоку.

Як іронічно це не звучить, але під час суперечки Claude випередив ChatGPT за кількістю завантажень у США, а NPR повідомила про понад мільйон реєстрацій щодня протягом одного тижня. Ніщо так не стимулює споживчий інтерес, як принципова позиція проти найбільшої армії світу.

Чому це важливо за межами США

Для нас у Великій Британії це не просто трансатлантичний театр. Прецедент, коли уряд вносить у чорний список вітчизняну ШІ компанію за дотримання зобов'язань щодо безпеки, уважно відстежується політиками тут і в Європі. Якщо США можуть змусити власних розробників ШІ видалити етичні запобіжники, це ставить незручні питання про те, що станеться, коли Велика Британія вестиме власні переговори про закупівлю військового ШІ.

Двадцять два колишні військові чиновники, понад 30 дослідників ШІ з компаній-конкурентів, а також спільні заяви від Microsoft, працівників OpenAI та Google виступили проти цього рішення. Як сказав сам Сем Альтман: "Ми не обрані. Я справді не хочу, щоб ми вирішували, що робити, якщо на США летить ядерна ракета".

Справедливе зауваження. Але хтось має провести межу, і зараз Anthropic розплачується за спробу це зробити.

Читайте оригінальну статтю на джерелі.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.