Tech · 6 min lezen

Palantir's AIPCon 9: Waar Silicon Valley het Slagveld Ontmoet, en Zaken Floreren

Palantir's AIPCon 9 toonde AI-doelwitkeuze tijdens Amerikaanse aanvallen op Iran. Wat betekent dit voor technologie, ethiek en de toekomst van moderne oorlogvoering?

Palantir's AIPCon 9: Waar Silicon Valley het Slagveld Ontmoet, en Zaken Floreren

Oorlog Is Goed voor Zaken, Blijkbaar

Als je je ooit hebt afgevraagd wat er gebeurt wanneer een techconferentie botst met een actieve militaire campagne, bood Palantir's AIPCon 9 een behoorlijk verontrustend antwoord. De ontwikkelaarsconferentie, gehouden op 12 en 13 maart 2026 in Maryland, toonde AI-systemen die niet bedoeld zijn om je volgende Netflix-binge aan te bevelen, maar om in real-time doelen te identificeren en munitie toe te wijzen tijdens gevechtsoperaties.

En de timing? Absoluut opzettelijk, vermoedt men. De conferentie vond plaats terwijl Amerikaanse strijdkrachten actief Operation Epic Fury uitvoerden tegen Iran, een operatie die in de eerste 24 uur na de lancering op 28 februari 2026 maar liefst 1.000 doelen trof. Dat is, naar schatting van sommige analisten, ruwweg twee keer de luchtmacht die werd ingezet tijdens de 'shock and awe'-campagne van 2003 in Irak, en dat in een fractie van de tijd.

Maven Krijgt Zijn Moment in de Schijnwerpers

Het middelpunt van AIPCon 9 was een live demonstratie van het Maven Smart System door Cameron Stanley, de Chief Digital and AI Officer van het Amerikaanse ministerie van Defensie. Voor wie er niet bekend mee is: Project Maven evolueert al stilletjes sinds 2016, oorspronkelijk in samenwerking met Google, totdat protesterende medewerkers de techgigant in 2018 dwongen zich terug te trekken. Palantir pakte maar al te graag de draad op waar Google die had laten vallen.

Wat Stanley demonstreerde was technisch gezien werkelijk opmerkelijk, ook al doen de implicaties je maag een beetje omdraaien. Het Maven-systeem consolideert wat voorheen acht of negen afzonderlijke doelwitkeuze-systemen waren tot één enkele interface. Stanley merkte zelf op: 'We lieten dit uitvoeren in zo'n acht of negen systemen waarbij mensen detecties letterlijk heen en weer verschoven.'

De demo toonde satellietbeelden die in real-time werden verwerkt, waarbij het systeem mensen van voertuigen onderscheidde en vervolgens munitietoewijzingen voorstelde via wat Palantir zijn AI Asset Tasking Recommender noemt. Zie het als automatisch aanvullen, maar dan voor luchtaanvallen.

Van 2.000 Inlichtingenofficieren naar 20

De meest opvallende statistiek kwam misschien wel van Chad Wahlquist, een architect bij Palantir, die beweerde dat doelwittaken waarvoor tijdens Operation Iraqi Freedom ongeveer 2.000 inlichtingenofficieren nodig waren, nu door circa 20 mensen kunnen worden uitgevoerd met het Maven-systeem. Dat is een vermindering van 99% in menselijke betrokkenheid bij de doelwitketen. Of je dat indrukwekkend of angstaanjagend vindt, hangt waarschijnlijk af van je perspectief, maar het is de moeite waard om even bij beide reacties stil te staan.

Alex Karp: Silicon Valley's Meest Openhartige Defensie-CEO

Palantir-CEO Alex Karp, nooit iemand die terugdeinst voor een gedurfde uitspraak, was in zijn kenmerkend rondborstige vorm. 'Wat Amerika op dit moment bijzonder maakt, zijn onze dodelijke capaciteiten, ons vermogen om oorlog te voeren,' vertelde hij aan CNBC op de openingsdag van de conferentie. Hij ging verder en beschreef de AI-revolutie als 'uniek Amerikaans', eraan toevoegend: 'Zodra de oorlog begint, zijn we niet geïnteresseerd in een debat over hoe we hen ondersteunen.'

Het is het soort retoriek waarbij de PR-teams van de meeste tech-CEO's het koud op hun rug zou krijgen. Maar Karp heeft een bedrijf opgebouwd dat nu gewaardeerd wordt op ongeveer 365 miljard dollar (met aandelen die rond de 152,77 dollar werden verhandeld medio maart 2026) precies door de ongemakkelijke ruimte op te zoeken waar Silicon Valley de Pentagon ontmoet.

De Anthropic-paradox

Een van de fascinerende subplots betreft Anthropic, het AI-veiligheidsbedrijf achter het Claude-taalmodel. En hier wordt het pas echt ingewikkeld: Maven gebruikt Anthropic's Claude AI-model als onderdeel van zijn doelwitkeuze-stack. Karp bevestigde dat, met de woorden: 'Het is onze stack die de LLM's draait.'

Het probleem? Anthropic en het Pentagon liggen momenteel flink met elkaar overhoop. Anthropic-CEO Dario Amodei publiceerde blogberichten waarin hij stelde dat het ministerie van Defensie weigerde waarborgen in te voeren tegen binnenlandse massasurveilance en het gebruik van autonome wapens. Als reactie bestempelde Defensieminister Pete Hegseth Anthropic als een 'supply-chain risk'. Anthropic spande vervolgens een rechtszaak aan tegen het Pentagon.

Ondanks dit tamelijk spectaculaire conflict bevestigde Karp dat Palantir Claude desondanks blijft gebruiken. We hebben dus de technologie van een AI-veiligheidsbedrijf die wordt ingezet in een militair doelwitkeuze-systeem, terwijl datzelfde bedrijf de militairen aanklaagt vanwege veiligheidsbezwaren. Je zou het echt niet kunnen verzinnen.

De Olifant in de Kamer

Elke eerlijke beschrijving van AIPCon 9 moet erkennen wat zich op de achtergrond afspeelde. Er liep een onderzoek van het Pentagon naar een aanval op de Shajareh Tayyebeh basisschool in Minab, Iran, waarbij meer dan 160 mensen om het leven kwamen, voornamelijk schoolmeisjes van 7 tot 12 jaar oud. Bronnen geciteerd door Semafor gaven aan dat menselijke inlichtingenanalisten, en niet het AI-systeem, de schuld kregen van de doelwitkeuze-fout. Maar het feit dat dit onderzoek gelijktijdig liep met een conferentie die de betrokken systemen vierde, wierp een onvermijdelijke schaduw over de gebeurtenissen.

Karp hield vol dat er 'nooit een gevoel' was dat AI-producten voor binnenlandse surveillance zouden worden gebruikt. Dat kan waar zijn, maar de vraag hoe door AI ondersteunde doelwitkeuze omgaat met burgerveiligheid bij buitenlandse operaties is op dit moment aantoonbaar de dringendste zorg.

Wat Dit Betekent voor de Technologiesector

Palantir's koers vertelt ons iets significant over de richting die de technologiesector opgaat. Het bedrijf dat ooit te controversieel werd geacht voor reguliere investeerders, is nu een van de meest waardevolle ondernemingen ter wereld. Defensiecontracten zijn niet langer iets wat techbedrijven verbergen achter vage taal over 'overheidsdiensten'. Ze zijn het product.

De conferentie toonde ook ShipOS, Palantir's marine-systeem, en gaf aan dat het bedrijf van plan is om naast Claude nog meer AI-modellen te integreren. De boodschap was duidelijk: dit is geen bedrijf dat zijn kansen spreidt. Dit is een bedrijf dat heeft besloten dat de toekomst van AI militair is, en dat bouwen ze dienovereenkomstig.

De Bredere Vragen

  • Verantwoordelijkheid: Als een AI-systeem een doelwit aanbeveelt en de aanval burgers doodt, waar ligt de verantwoordelijkheid dan? Bij de 20 overgebleven operators? Het algoritme? Het bedrijf dat het bouwde?
  • Snelheid versus veiligheid: Het terugbrengen van doelwitkeuze van duizenden analisten naar tientallen verhoogt de snelheid drastisch. Maar snelheid in oorlogvoering is niet altijd een deugd.
  • Het ethische gat: Google trok zich in 2018 terug uit Maven. Palantir stapte er juist op af. De markt beloonde Palantir rijkelijk. Wat zegt dat over het morele kompas van de sector?

Het Oordeel

AIPCon 9 was niet zomaar een ontwikkelaarsconferentie. Het was een intentieverkaring van een bedrijf dat heeft besloten dat de meest winstgevende toepassing van kunstmatige intelligentie niet chatbots of beeldgeneratoren zijn, maar de machinerie van de oorlog. Met een waardering van 365 miljard dollar en een actieve militaire campagne als live demonstratie, bewijst Palantir dat dit een juiste gok is, tenminste financieel gezien.

Of de rest van ons daar gemakkelijk mee kan leven, is een heel andere vraag. De technologie is werkelijk indrukwekkend. De vermindering van personeel, de consolidatie van systemen, de snelheid van doelwitkeuze. Maar indrukwekkende technologie zonder robuuste ethische vangrails is geen vooruitgang. Het is puur capaciteit.

En capaciteit, zoals de families in Minab kunnen bevestigen, is niet hetzelfde als wijsheid.

Lees het originele artikel op bron.

D
Geschreven door

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.