Пентагон считает, что Anthropic может саботировать собственный ИИ. В Anthropic считают это абсурдом.

Пентагон считает, что Anthropic может саботировать собственный ИИ. В Anthropic считают это абсурдом.

Когда ваш лучший клиент называет вас угрозой безопасности

В том, что можно назвать самым драматичным разрывом отношений между технологической компанией и правительством США за последнее время, Министерство обороны официально признало Anthropic «риском для цепочки поставок» национальной безопасности. В чем обвинение? В том, что сотрудники Anthropic могут «саботировать, злонамеренно внедрять нежелательные функции или иным образом подрывать» военные системы ИИ. Anthropic, со своей стороны, назвала это решение абсурдным и ответным шагом.

Если вы пытаетесь уследить за сюжетом, вы не одиноки. Давайте отмотаем назад.

Как сделка на 200 миллионов долларов пошла не по плану

В июле 2025 года Пентагон заключил контракт на 200 миллионов долларов с Anthropic, OpenAI, Google и xAI для внедрения передового ИИ в военные операции. Claude, флагманская модель Anthropic, попала в закрытые сети через AWS и, как сообщается, использовалась в военных операциях США, связанных с Ираном и арестом венесуэльского лидера Николаса Мадуро.

Затем возник камень преткновения. У Anthropic были два не подлежащих обсуждению ограничения в контракте: никакой массовой слежки внутри страны и никаких полностью автономных систем вооружения. Министр обороны Пит Хегсет дал Anthropic время до 17:01 пятницы, 27 февраля 2026 года, чтобы снять эти ограничения и разрешить неограниченное военное использование Claude. Anthropic отказалась.

Последовавшие за этим действия были быстрыми. Пентагон повесил на Anthropic ярлык риска для цепочки поставок, инструмент, который обычно приберегают для подрядчиков из числа иностранных противников, а не для местных фирм из Кремниевой долины. Сенатор Кирстен Джиллибранд назвала это «опасным злоупотреблением инструментом, предназначенным для борьбы с технологиями, контролируемыми противником». Затем президент Трамп приказал всем федеральным агентствам США полностью прекратить использование технологий Anthropic с шестимесячным переходным периодом.

Заявление о саботаже

Самый удивительный момент возник со стороны юристов Министерства юстиции, которые в документах утверждали, что сотрудники Anthropic теоретически могут манипулировать Claude, чтобы подорвать системы национальной безопасности. Технический директор Пентагона Эмиль Майкл выразился прямо: «Сама модель понимает, что вы пытаетесь сделать, и перестает работать. Это риск, на который я не могу пойти».

Anthropic твердо отрицает, что это вообще возможно, называя версию о саботаже беспочвенной. 9 марта 2026 года компания подала два иска против федерального правительства: один в Сан Франциско, а другой в федеральный апелляционный суд в Вашингтоне, округ Колумбия. Судебное слушание назначено на 24 марта перед судьей Ритой Ф. Лин.

Последствия

OpenAI быстро заполнила пустоту, получив контракт Пентагона на замену Claude в секретных системах после согласия разрешить использование своих моделей «для любых законных целей». Военные источники оценивают, что для полной замены Claude в закрытых военных сетях может потребоваться от трех до двенадцати месяцев, учитывая, что это была одна из двух моделей передового ИИ, работающих в этой среде.

Lockheed Martin объявила, что прекратит использование Claude и будет искать альтернативы. Тем временем во внутренней записке, которая сразу же просочилась в прессу, генеральный директор Anthropic Дарио Амодеи назвал публичные заявления OpenAI по поводу сделки о замене «откровенной ложью», прежде чем извиниться за саму утечку.

В повороте, который заставил бы улыбнуться любую PR команду, Claude фактически обогнал ChatGPT по количеству загрузок приложений в США во время спора, а NPR сообщило о более чем миллионе ежедневных регистраций за одну неделю. Ничто так не стимулирует интерес потребителей, как принципиальная позиция против крупнейшей в мире армии.

Почему это важно за пределами США

Для нас в Великобритании это не просто трансатлантический театр. Прецедент, когда правительство вносит в черный список отечественную ИИ компанию за соблюдение обязательств по безопасности, внимательно отслеживается политиками здесь и по всей Европе. Если США могут принудить своих собственных разработчиков ИИ к снятию этических ограничений, это поднимает неудобные вопросы о том, что произойдет, когда Великобритания будет вести переговоры о собственных сделках по закупке военного ИИ.

Двадцать два бывших военных чиновника, более 30 исследователей ИИ из конкурирующих компаний, а также заключения от Microsoft, сотрудников OpenAI и Google выступили против этого решения. Как выразился сам Сэм Альтман: «Нас не выбирали. Я действительно не хочу, чтобы мы решали, что делать, если на США летит ядерная ракета».

Справедливое замечание. Но кто то должен где то провести черту, и прямо сейчас Anthropic расплачивается за попытку это сделать.

Читайте оригинальную статью на источнике.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.