A Pentagon szerint az Anthropic szabotálhatja saját mesterséges intelligenciáját. Az Anthropic szerint ez abszurd.

A Pentagon szerint az Anthropic szabotálhatja saját mesterséges intelligenciáját. Az Anthropic szerint ez abszurd.

Amikor a legjobb ügyfeled nemzetbiztonsági kockázatnak nevez

Talán ez a legdrámaibb szakítás egy technológiai vállalat és az amerikai kormány között, amióta világ a világ: a Védelmi Minisztérium hivatalosan is "ellátási lánc kockázatnak" nyilvánította az Anthropicot a nemzetbiztonságra nézve. A vád? Hogy az Anthropic munkatársai "szabotálhatják, rosszhiszeműen nemkívánatos funkciókkal láthatják el, vagy más módon alááshatják" a katonai mesterséges intelligencia rendszereket. Az Anthropic részéről a minősítést megtorló képtelenségnek nevezte.

Ha nehezen követed a történet fonalát, nem vagy egyedül. Tekerjünk vissza.

Hogyan futott zátonyra egy 200 millió dolláros üzlet

Még 2025 júliusában a Pentagon egy 200 millió dolláros szerződést ítélt oda az Anthropic, az OpenAI, a Google és az xAI számára, hogy behozzák a határtechnológiás mesterséges intelligenciát a katonai műveletekbe. A Claude, az Anthropic zászlóshajó modellje, az AWS révén felkerült a minősített hálózatokra, és állítólag használták az amerikai hadsereg Iránnal kapcsolatos műveleteiben, valamint a venezuelai vezető, Nicolas Maduro letartóztatásakor is.

Aztán jött a vitás pont. Az Anthropic két nem tárgyalható korlátozást épített be a szerződésébe: nincs tömeges hazai megfigyelés és nincsenek teljesen autonóm fegyverrendszerek. Pete Hegseth védelmi miniszter 2026. február 27-én, pénteken 17:01-ig adott határidőt az Anthropicnak a korlátozások eltörlésére és a Claude korlátlan katonai használatának engedélyezésére. Az Anthropic visszautasította.

A válasz gyors volt. A Pentagon "ellátási lánc kockázat" címkével látta el az Anthropicot, ami egy olyan eszköz, amelyet általában külföldi ellenfelek beszállítóinál alkalmaznak, nem pedig hazai, szilícium-völgyi cégeknél. Kirsten Gillibrand szenátor "az ellenséges technológiák kezelésére szánt eszköz veszélyes visszaélésének" nevezte az esetet. Ezután Trump elnök elrendelte, hogy minden amerikai szövetségi ügynökség hagyjon fel az Anthropic technológiájának használatával, egy hat hónapos kivezetési időszakkal.

A szabotázs vádja

A legmeglepőbb elem az Igazságügyi Minisztérium ügyvédeitől származott, akik beadványaikban azzal érveltek, hogy az Anthropic alkalmazottai elméletileg manipulálhatják a Claude-ot a nemzetbiztonsági rendszerek aláásása érdekében. Emil Michael, a Pentagon technológiai igazgatója nyersen fogalmazott: "A modell maga megtanulja, mire készülsz, és leáll. Ez egy olyan kockázat, amit nem vállalhatok."

Az Anthropic határozottan tagadja, hogy ez egyáltalán lehetséges lenne, alaptalannak nevezve a szabotázs keretezését. 2026. március 9-én a vállalat két keresetet nyújtott be a szövetségi kormány ellen, egyet San Franciscóban, egy másikat pedig a washingtoni szövetségi fellebbviteli bíróságon. A bírósági meghallgatás március 24-ére van kitűzve Rita F. Lin bírónő előtt.

A következmények

Az OpenAI gyorsan lépett, hogy betöltse a űrt, és megszerezte a Pentagon szerződését a Claude leváltására a minősített rendszerekben, miután beleegyezett, hogy modelljeit "bármilyen törvényes célra" használják. Védelmi források becslése szerint háromtól tizenkét hónapig is eltarthat a Claude teljes cseréje a minősített katonai hálózatokon, tekintve, hogy ez volt a két határtechnológiás MI modell egyike, amely abban a környezetben működött.

A Lockheed Martin bejelentette, hogy felhagy a Claude használatával és alternatívákat keres. Eközben egy belső feljegyzésben, amely azonnal kiszivárgott, Dario Amodei, az Anthropic vezérigazgatója "színtiszta hazugságnak" nevezte az OpenAI nyilvános üzeneteit a csereüzlettel kapcsolatban, mielőtt elnézést kért volna a szivárgásért.

Egy olyan fordulatban, amely bármely PR csapatot mosolyra fakasztana, a Claude a vita során megelőzte a ChatGPT-t az amerikai alkalmazásletöltésekben, az NPR pedig egymillió feletti napi regisztrációt jelentett egyetlen hét alatt. Semmi sem ösztönzi annyira a fogyasztói érdeklődést, mint egy elvi állásfoglalás a világ legnagyobb hadseregével szemben.

Miért fontos ez az Egyesült Államokon túl is?

Az Egyesült Királyságban élők számára ez nem csupán transzatlanti színház. A precedenst, miszerint egy kormány feketelistára tesz egy hazai MI vállalatot a biztonsági kötelezettségvállalásainak fenntartása miatt, szorosan figyelemmel kísérik a döntéshozók itt és Európa szerte. Ha az USA rá tudja kényszeríteni saját MI fejlesztőit az etikai korlátok eltávolítására, az kényelmetlen kérdéseket vet fel azzal kapcsolatban, mi történik, amikor az Egyesült Királyság saját katonai MI beszerzési ügyleteiről tárgyal.

Huszonkét volt katonai tisztviselő, több mint 30 versenytárs MI kutató, valamint a Microsoft, az OpenAI munkatársai és a Google által benyújtott amicus briefek mind ellenezték a minősítést. Ahogy Sam Altman fogalmazott: "Nem választottak meg minket. Igazán nem akarom, hogy mi döntsünk arról, mit kell tenni, ha egy atomrakéta tart az Egyesült Államok felé."

Jogos észrevétel. De valakinek meg kell húznia a határt valahol, és jelenleg az Anthropic fizeti meg az árát annak, hogy megpróbálja.

Olvasd el az eredeti cikket a forrásnál.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.