Pentagon arvab, et Anthropic võib oma tehisintellekti saboteerida. Anthropic peab seda absurdseks.
Pentagon märgistas Anthropicu julgeolekuriskina pärast seda, kui ettevõte keeldus eemaldamast AI piiranguid oma sõjaväelepingust. Anthropic on esitanud kaks kohtuasja.
Kui sinu parim klient nimetab sind julgeolekuohuks
Selles, mis võib olla dramaatiline tüli tehnoloogiaettevõtte ja USA valitsuse vahel, on kaitseministeerium ametlikult märgistanud Anthropici riikliku julgeoleku 'tarneahela riskina'. Süüdistus? Anthropici töötajad võivad sõjaväe tehisintellekti süsteeme 'saboteerida, pahatahtlikult sisse viia soovimatuid funktsioone või muul viisil õõnestada'. Anthropic on ise nimetanud seda designeeringut kättemaksuks ja mõttetuseks.
Kui sul on raske süžeed jälgida, pole sa üksi. Kerikem tagasi.
Kuidas 200 miljoni dollari tehing läks hapuks
2025. aasta juulis andis Pentagon 200 miljoni dollari suuruse lepingu Anthropicule, OpenAI-le, Google'ile ja xAI-le, et tuua piiritehisintellekt sõjaväeoperatsioonidesse. Anthropicu lipulaevamudel Claude jõudis salastatud võrkudesse AWS-i kaudu ning seda kasutati väidetavalt USA sõjaväeoperatsioonides, mis hõlmasid Iraani ja Venezuela liidri Nicolas Maduro vahistamist.
Siis tuli takistus. Anthropicul oli lepingusse sisse põimitud kaks mitteläbiräägitavat piirangut: massiline riigisisene jälgimine on keelatud ja täielikult autonoomsed relvastussüsteemid on keelatud. Kaitseminister Pete Hegseth andis Anthropicule tähtajaks reede, 27. veebruar 2026 kell 17:01, et need piirangud kõrvaldada ja lubada Claudet sõjaväes piiranguteta kasutada. Anthropic keeldus.
Järgnes kiire reaktsioon. Pentagon kleepis Anthropicule tarneahela riskidesigneeringu, tööriista, mis on tavaliselt reserveeritud välisvaenlaste töövõtjatele, mitte kodumaisele Räniorgu ettevõttele. Senator Kirsten Gillibrand nimetas seda 'vaenlase kontrolli all oleva tehnoloogia probleemide lahendamiseks mõeldud vahendi ohtlikuks väärkasutamiseks'. Seejärel käskis president Trump kõigil USA föderaalasutustel lõpetada Anthropicu tehnoloogia kasutamine täielikult, kuuekuulise järkjärgulise lõpetamise aknaga.
Sabotaaži väide
Kõige kulmu kergitavam element tuli justiitsministeeriumi advokaatidelt, kes väitsid kohtudokumentides, et Anthropicu töötajad võivad teoreetiliselt Claudet muuta, et kahjustada riiklikke julgeolekusüsteeme. Pentagoni tehnoloogiadirektor Emil Michael ütles seda otse: 'Mudel ise õpib, mida sa üritad teha, ja lõpetab töötamise. See on risk, mida ma ei saa võtta.'
Anthropic on kindlalt eitanud, et see oleks üldse võimalik, nimetades sabotaaži esitusviisi alusetuks. 9. märtsil 2026 esitas ettevõte föderaalvalitsuse vastu kaks kohtuasja, ühe San Franciscos ja teise föderaalsetes apellatsioonikohtutes Washingtonis. Kohtuistung on kavandatud 24. märtsile kohtuniku Rita F. Lini ette.
Tagajärjed
OpenAI liikus kiiresti lünka täitma, kindlustades Pentagoni lepingu Claudet salastatud süsteemides asendada pärast seda, kui nõustus lubama oma mudeleid kasutada 'mis tahes seaduslikul eesmärgil'. Kaitseallika hinnangul võib Claudet salastatud sõjaväevõrkudest täielikult asendada kolm kuni kaksteist kuud, arvestades, et see oli üks kahest selles keskkonnas töötavast piiritehisintellekti mudelist.
Lockheed Martin teatas, et lõpetab Claudet kasutamise ja otsib alternatiive. Vahepeal nimetas Anthropicu tegevjuht Dario Amodei sisemises memorandumis, mis kiiresti lekitati, OpenAI avalikku sõnumit asendusdepingu ümber 'otseseks valedeks', enne kui ise lekke pärast vabandas.
Keerises, mis paneks iga PR-meeskonna naeratama, edestas Claude tegeliku vaidluse ajal ChatGPT rakenduse allalaadimisi USA-s, ning NPR teatas üle miljoni päevase registreerumise ühe nädala jooksul. Miski ei ärata tarbijates huvi nii nagu põhimõtteline vastasseis maailma suurima sõjaväega.
Miks see on oluline ka väljaspool USA-d
Meie jaoks Ühendkuningriigis pole see pelgalt transatlantiline teater. Pretsedent, kus valitsus mustab kodumaise tehisintellekti ettevõtte ohutuskohustuste säilitamise eest, on poliitikakujundajate poolt siinsamas ja üle Euroopa tähelepanelikult jälgitud. Kui USA suudab survestada oma tehisintellekti arendajaid eetilisi kaitsemeetmeid eemaldama, tõstatab see ebamugavaid küsimusi selle kohta, mis juhtub siis, kui Ühendkuningriik peab oma sõjaväe tehisintellekti hankelepinguid läbi rääkima.
Kakskümmend kaks endist sõjaväeametnikku, üle 30 konkureerivate ettevõtete tehisintellekti teadlase ning amicus briefs Microsoft, OpenAI töötajate ja Google poolt on kõik väljendanud vastuseisu sellele designeeringule. Nagu Sam Altman ise ütles: 'Me ei ole valitud. Ma tõesti ei taha, et meie otsustaksime, mida teha, kui tuumapomm on USA suunas teel.'
Õiglane punkt. Kuid keegi peab kuskil piiri tõmbama, ja praegu maksab Anthropic selle eest, et ta seda üritab.
Loe originaalartiklit siit: allikas.
