De VS voerde op 28 februari 2026 meer dan 900 luchtaanvallen uit op Iran in de eerste twaalf uur van Operation Epic Fury. Die omvang was niet mogelijk zonder AI. Het Pentagon gebruikte het Maven Smart System van Palantir om doelwitten te identificeren en te prioriteren op een schaal en snelheid die geen vorige oorlog heeft gekend. Tegelijkertijd brak het met Anthropic, het AI-bedrijf dat weigerde zijn veiligheidsgrenzen op te geven.
Hoe Project Maven in zes jaar uitgroeide tot een dodelijk targetsysteem
Project Maven begon in 2017 als een reactie op een concreet probleem. Het Pentagon verzamelde enorme hoeveelheden dronefootage die geen enkel analistenteam kon bijhouden. De oplossing was een AI-systeem dat beelden automatisch kon analyseren en objecten herkennen.
Google was de eerste technologiepartner. Maar na intern protest van medewerkers trok Google zich in 2018 terug. Palantir nam de fakkel over en bouwde het Maven Smart System verder uit tot een volledig operationeel targetsysteem.
In 2026 draait Maven op alle Amerikaanse strijdkrachtencommando's. Het systeem verwerkt satellietbeelden, onderschepte communicatie, dronefootage en historische inlichtingendata tegelijkertijd. Een commandant krijgt een geprioriteerde lijst van doelwitten op zijn scherm. De stap van inlichting naar aanbeveling neemt minuten in plaats van uren.
Zoals The Register rapporteerde op basis van uitspraken tijdens Palantirs eigen AIPCON-conferentie: het systeem verkortte het hele proces van doelwitidentificatie tot actieplanning naar één platform. Cameron Stanley, chief digital and AI officer van het DoD, omschreef het als "revolutionair."
Hoe Anthropics Claude werd ingezet terwijl het bedrijf al was verbannen
Maven draaide in Iran op Anthropics Claude als redeneermotor. Claude verwerkte de ruwe inlichtingenstromen en genereerde doelwitaanbevelingen. Dat was opmerkelijk, want uren voor de eerste aanvallen op Iran had het Pentagon Anthropic al bestempeld als "supply chain risk."
De breuk was het resultaat van maanden van mislukte onderhandelingen. Anthropic had in juli 2025 een contract getekend met het Pentagon ter waarde van 200 miljoen dollar, waarbij Claude als eerste frontier AI-model werd toegelaten op geclassificeerde netwerken. In dat contract stonden twee harde grenzen: Claude mocht niet worden ingezet voor massasurveillance van Amerikaanse burgers, en niet voor volledig autonome wapensystemen zonder menselijke tussenkomst.
Het Pentagon wilde die grenzen schrappen en eiste toegang "voor alle wettelijke doeleinden." Anthropic weigerde. Op 27 februari 2026 stelde president Trump alle federale instanties verplicht het gebruik van Anthropic te staken, en verklaarde defensieminister Pete Hegseth het bedrijf tot veiligheidsrisico voor de toeleveringsketen. Dat is een label dat normaal gesproken gereserveerd is voor bedrijven met banden met buitenlandse vijanden.
Anthropic diende direct een rechtszaak in. CNN berichtte dat tientallen wetenschappers van OpenAI en Google DeepMind een steunbrief indienden bij de rechtbank, uit vrees dat de uitspraak een gevaarlijk precedent zet voor de gehele AI-sector.
Waarom AI-targeting in Iran meer vragen oproept dan het beantwoordt
Operation Epic Fury trof meer dan 2.000 doelwitten in vier dagen. Die intensiteit was menselijkerwijs onmogelijk zonder geautomatiseerde ondersteuning. Maar dezelfde snelheid die het systeem efficiënt maakt, vergroot ook de kans op fouten.
Uit interne tests van het Amerikaanse leger bleek dat Maven in 2024 objecten correct identificeerde bij circa 60 procent van de gevallen. Menselijke analisten scoorden circa 84 procent. Zoals The National News analyseerde: het systeem kan getallen omdraaien, woorden verwarren of simpelweg iets verzinnen. Bij civiele toepassingen is dat vervelend. Bij doelwitbepaling zijn de gevolgen dodelijk.
Dat risico manifesteerde zich concreet. Een aanval trof een school in Minab waarbij meer dan 160 mensen om het leven kwamen, van wie een groot deel kinderen. Op de Maven-kaart die tijdens de AIPCON-conferentie werd getoond, was het gebied rondom Minab gemarkeerd als doelwit. Of een AI-fout een rol speelde, is nog niet vastgesteld.
Leden van het Amerikaans Congres overwegen nu wetgeving die verplicht dat een mens iedere beslissing tot dodelijk geweld goedkeurt. Vertegenwoordiger Sara Jacobs zei tegenover NBC News: "AI-tools zijn niet 100 procent betrouwbaar. We hebben de verantwoordelijkheid om strikte grenzen te stellen."
Silicon Valley en het Pentagon: een patroon van samenwerking en terugtrekking
De samenwerking tussen techbedrijven en het Amerikaanse leger is niet nieuw. Google werkte mee aan de eerste versie van Maven, maar trok zich terug na intern protest. Microsoft leverde HoloLens-headsets aan het leger. Palantir bouwde zijn Gotham-software mede met CIA-steun.
Wat nieuw is, is de schaal en de directe koppeling aan lethal targeting. Zoals Al Jazeera in een historisch overzicht concludeerde: techbedrijven en het Pentagon zijn decennialang verweven geweest, maar de inzet in Iran markeert een nieuw niveau van AI-integratie in daadwerkelijke oorlogsvoering.
OpenAI tekende uren na het verbod op Anthropic een deal met het Pentagon. Het bedrijf had eerder gezegd Anthropics bezwaren te delen, maar koos uiteindelijk voor samenwerking zonder de grenzen die Anthropic stelde. Elon Musks xAI staat ook klaar voor inzet op geclassificeerde netwerken.
Over de achtergrond van de Anthropic-Pentagon breuk en de rechtszaak die daaruit volgde, schreven wij eerder uitgebreid in ons artikel over hoe Anthropic de overheid voor de rechter daagde.
Wat jij als burger, beleidsmaker of techprofessional nu moet weten
De oorlog in Iran is niet alleen een militair vraagstuk. Hij stelt fundamentele vragen over wie AI mag inzetten, onder welke voorwaarden en met welke menselijke controle. Dat raakt ook Nederland direct.
- De EU AI Act sluit nationale veiligheidssystemen uit van haar toepassingsbereik. Maar dual-use systemen, die zowel civiel als militair worden ingezet, vallen wél onder Europese regels. Nederland en andere NAVO-partners hanteren daarnaast de NAVO-principes voor verantwoorde AI, die menselijk toezicht en traceerbaarheid vereisen.
- Het Anthropic-precedent is relevant voor elke Nederlandse organisatie die Claude gebruikt én zakendoet met de Amerikaanse overheid. De supply chain risk-aanduiding kan contractuele gevolgen hebben.
- De accuratessecijfers van Maven, 60 procent bij objectherkenning, zouden bij elk civiel AI-systeem onacceptabel zijn. Dat dezelfde norm geldt in een oorlogscontext roept urgente ethische vragen op.
- Volg de rechtszaak van Anthropic. De uitspraak bepaalt mede wie in de toekomst mag beslissen welke grenzen AI-bedrijven mogen stellen aan hun technologie.
Hoe het Pentagon Claude al inzette op geclassificeerde netwerken vóór dit conflict explodeerde, bespraken we eerder in ons stuk over het Claude-model dat jaren voorloopt op de consumentenversie.
Conclusie
De oorlog in Iran is het eerste conflict waarbij AI niet ondersteunt, maar grotendeels aanstuurt. Project Maven verkortte de kill chain van uren naar minuten. Of de mens daarin nog een betekenisvolle rol speelt, of alleen nog een handtekening zet, is de vraag die niemand officieel wil beantwoorden.
