News · 4 min lezen

Het Pentagon Denkt dat Anthropic zijn Eigen AI Saboteert. Anthropic Vindt dat Absurd.

Het Pentagon bestempelt Anthropic als nationaal veiligheidsrisico nadat het bedrijf weigert ethische beperkingen in zijn militaire AI-contract te schrappen. Wat betekent dit voor de toekomst van AI-regulering?

Het Pentagon Denkt dat Anthropic zijn Eigen AI Saboteert. Anthropic Vindt dat Absurd.

Wanneer je Beste Klant je een Veiligheidsrisico Noemt

In wat misschien wel de meest dramatische breuk is tussen een techbedrijf en de Amerikaanse overheid ooit, heeft het Ministerie van Defensie Anthropic officieel bestempeld als een 'supply chain risico' voor de nationale veiligheid. De beschuldiging? Dat medewerkers van Anthropic militaire AI-systemen zouden kunnen 'saboteren, kwaadwillig ongewenste functies introduceren, of anderszins ondermijnen.' Anthropic zelf heeft de aanduiding bestempeld als vergeldingswaanzin.

Als je de plot moeilijk kunt volgen, ben je niet de enige. Laten we even terugspoelen.

Hoe een Deal van 200 Miljoen Dollar Misliep

In juli 2025 kende het Pentagon een contract van 200 miljoen dollar toe, verdeeld over Anthropic, OpenAI, Google en xAI, om geavanceerde AI in militaire operaties te integreren. Claude, het vlaggenschipmodel van Anthropic, belandde via AWS op geclassificeerde netwerken en werd naar verluidt ingezet bij Amerikaanse militaire operaties rondom Iran en de arrestatie van de Venezolaanse leider Nicolas Maduro.

Toen kwamen de struikelblokken. Anthropic had twee niet-onderhandelbare beperkingen in het contract opgenomen: geen massale binnenlandse surveillance en geen volledig autonome wapensystemen. Defensieminister Pete Hegseth gaf Anthropic tot 17:01 uur op vrijdag 27 februari 2026 de tijd om die beperkingen te laten vallen en onbeperkt militair gebruik van Claude toe te staan. Anthropic weigerde.

Wat volgde was snel. Het Pentagon plakte Anthropic een supply chain risico-aanduiding op, een instrument dat doorgaans voorbehouden is aan aannemers uit vijandige staten, niet aan Silicon Valley-bedrijven van eigen bodem. Senator Kirsten Gillibrand noemde het 'een gevaarlijk misbruik van een instrument bedoeld voor door vijanden gecontroleerde technologie.' Vervolgens beval president Trump alle Amerikaanse federale instanties om volledig te stoppen met het gebruik van Anthropic-technologie, met een uitfaseringsperiode van zes maanden.

De Sabotageclaim

Het meest wenkbrauwverhekkende onderdeel kwam van advocaten van het Ministerie van Justitie, die in gerechtelijke stukken betoogden dat Anthropic-medewerkers theoretisch met Claude zouden kunnen knoeien om nationale veiligheidssystemen te ondermijnen. Pentagon-CTO Emil Michael zei het onomwonden: 'Het model zelf leert wat je probeert te doen en stopt dan met werken. Dat is een risico dat ik niet kan nemen.'

Anthropic heeft dit resoluut ontkend en de sabotagebeschuldiging als ongegrond bestempeld. Op 9 maart 2026 diende het bedrijf twee rechtszaken in tegen de federale overheid, een in San Francisco en een bij een federaal hof van beroep in Washington D.C. Een rechtszitting staat gepland op 24 maart voor rechter Rita F. Lin.

De Nasleep

OpenAI handelde snel om het gat op te vullen en sloot een deal met het Pentagon om Claude op geclassificeerde systemen te vervangen, nadat het bedrijf ermee had ingestemd zijn modellen beschikbaar te stellen 'voor elk wettelijk doel.' Defensiebronnen schatten dat het drie tot twaalf maanden kan duren om Claude volledig te vervangen op geclassificeerde militaire netwerken, aangezien het een van slechts twee geavanceerde AI-modellen was die in die omgeving actief waren.

Lockheed Martin kondigde aan te stoppen met het gebruik van Claude en alternatieven te zoeken. Ondertussen noemde Anthropic-CEO Dario Amodei in een intern memo dat prompt uitlekte de publieke communicatie van OpenAI rondom de vervangingsdeal 'ronduit leugens', waarna hij zich verontschuldigde voor het lek zelf.

In een wending die elk PR-team een glimlach zou bezorgen, overtrof Claude ChatGPT juist in Amerikaanse app-downloads tijdens het conflict, en NPR meldde meer dan een miljoen dagelijkse aanmeldingen in een enkele week. Niets wekt consumenteninteresse zo goed als een principieel standpunt tegenover het grootste leger ter wereld.

Waarom Dit Verder Reikt dan de VS

Voor ons in het Verenigd Koninkrijk is dit niet louter transatlantisch theater. Het precedent van een overheid die een eigen AI-bedrijf op een zwarte lijst zet omdat het veiligheidsbeloften nakomt, wordt nauwlettend gevolgd door beleidsmakers hier en in heel Europa. Als de VS zijn eigen AI-ontwikkelaars kan dwingen ethische veiligheidsgrenzen te verwijderen, roept dat ongemakkelijke vragen op over wat er gebeurt wanneer het VK zijn eigen militaire AI-aanbestedingen onderhandelt.

Tweeentwintig voormalige militaire functionarissen, meer dan 30 AI-onderzoekers van concurrerende bedrijven, en amicus-brieven van Microsoft, OpenAI-medewerkers en Google hebben zich allemaal uitgesproken tegen de aanduiding. Zoals Sam Altman het zelf verwoordde: 'Wij zijn niet gekozen. Ik wil echt niet dat wij beslissen wat er moet gebeuren als er een kernraket op de VS afkomt.'

Terecht punt. Maar iemand moet ergens een grens trekken, en op dit moment betaalt Anthropic de prijs voor die poging.

Lees het originele artikel op bron.

D
Geschreven door

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.