Het Amerikaanse ministerie van Defensie heeft een overeenkomst gesloten met OpenAI om generatieve AI-modellen in te zetten binnen defensienetwerken. Het gaat om toepassingen zoals vertalen, samenvatten en analyse, niet om wapens of doelbepaling. De samenwerking start in de VS en wordt stap voor stap uitgebreid met pilots. Intussen stapt rivaal Anthropic naar de rechter na een opgelegd verbod op het gebruik van zijn Claude-systeem.
Pentagon gebruikt OpenAI-modellen
OpenAI levert zijn taal- en redeneermodellen, zoals GPT-4-varianten, aan het Pentagon via een afgeschermde cloudomgeving. Zoān model kan tekst begrijpen en genereren, en helpt bijvoorbeeld bij het snel samenvatten van rapporten. De inzet richt zich op ondersteunende taken, zoals planning en vertaling. Het doel is om besluitvorming te versnellen en administratieve druk te verlagen.
De verwachting is dat de modellen draaien in een hogere beveiligingszone, vergelijkbaar met overheidsclouds. Daarmee worden data en prompt-invoer versleuteld en afgeschermd. Het ministerie kan zo testen zonder operationele systemen te verstoren. Dit soort pilots moet ook laten zien waar de technologie tekortschiet.
Defensie-organisaties zoeken al langer naar veilige manieren om AI te gebruiken. Eerdere proefprojecten richten zich op cybersecurity-assistentie en documentanalyse. Door een formele overeenkomst kan het Pentagon sneller opschalen als resultaten goed zijn. Tegelijk blijft toezicht nodig op fouten, bias en privacy.
Gebruik blijft strikt begrensd
OpenAI staat militaire toepassingen alleen toe binnen strikte grenzen. Het bedrijf verbiedt gebruik voor wapens, doelbepaling en schadelijke operaties. Het Pentagon benadrukt dat de modellen bedoeld zijn voor niet-kinetische taken. Denk aan noodhulpcoƶrdinatie, taalondersteuning en IT-onderhoud.
Generatieve AI kan hallucineren: het model verzint dan ogenschijnlijk plausibele maar foute antwoorden. Daarom komen er menselijke checks en logging. Ook worden datasets en uitkomsten steekproefsgewijs gecontroleerd. Dit verlaagt risicoās bij inzet in kritieke omgevingen.
Binnen defensie gelden extra eisen voor audit en herleidbaarheid. Zo moet duidelijk zijn welke invoer tot welke uitvoer leidde. Die traceerbaarheid is lastiger bij grote neurale netwerken. Extra validatie, sandboxing en red-teaming zijn daarom onderdeel van het traject.
Europese regels en uitzonderingen
De Europese AI-verordening (AI Act) sluit militaire AI uit van de directe reikwijdte. Dual-use systemen voor civiel gebruik vallen er wƩl onder. Europese overheden en leveranciers moeten dus scherp scheiden tussen defensie- en civiele inzet. Voor civiele toepassingen gelden eisen rond risicobeoordeling, transparantie en toezicht.
De AVG blijft relevant zodra persoonsgegevens worden verwerkt, zoals bij vertaling of analyse van rapporten met namen. Dataminimalisatie en versleuteling zijn dan verplicht. Voor grensoverschrijdende datastromen moet een rechtmatige grondslag bestaan. Europese krijgsmachten zullen daarom vaak kiezen voor lokale of EU-gecontroleerde cloudoplossingen.
De AI-verordening geldt niet voor militaire systemen, maar civiele en dual-use toepassingen moeten voldoen aan strenge Europese regels rond transparantie, veiligheid en gegevensbescherming.
NAVO-landen, waaronder Nederland en Belgiƫ, hanteren daarnaast de NAVO-principes voor verantwoorde AI. Die vragen om menselijk toezicht, traceerbaarheid en risicobeperking. De nieuwe Amerikaanse inzet past in die lijn, maar laat ook zien dat interoperabiliteit en inkoopvoorwaarden belangrijker worden.
Anthropic vecht verbod aan
Anthropic, maker van het Claude-model, start een rechtszaak tegen een opgelegd verbod op het gebruik van zijn systeem. Het bedrijf stelt dat het besluit onterecht en te ruim is geformuleerd. Volgens Anthropic beperkt het de keuzevrijheid van instellingen en bedrijven. De rechter moet nu toetsen of het verbod standhoudt.
De zaak draait om de vraag wanneer een AI-dienst āonveiligā is en wie dat mag bepalen. Zulke verboden raken ook aan mededinging en aanbestedingsrecht. Leveranciers willen gelijke toegang zolang zij voldoen aan veiligheids- en privacy-eisen. Onzekere regels kunnen investeringen en uitrol vertragen.
Voor Europese partijen is dit relevant door de komende implementatie van de AI Act. Ook hier zullen toezichthouders grenzen stellen aan hoog-risico-systemen. Heldere definities en toetsbare criteria zijn nodig om willekeur te voorkomen. Rechtszaken kunnen dat proces versnellen of juist vertragen.
Gevolgen voor Nederland en EU
De Nederlandse defensie werkt al met AI-pilots voor logistiek, vertaling en cyber. Samenwerkingen met grote Amerikaanse aanbieders worden waarschijnlijker, maar vragen strikte kaders. Voor civiele overheden gelden de AI Act en de AVG onverkort. Inkoop moet daarom eisen opnemen voor audit, dataminimalisatie en beveiliging.
Publieke instellingen doen er goed aan om modellen af te schermen, logs te bewaren en menselijke controle in te bouwen. Ook is het raadzaam om gevoelige data eerst te pseudonimiseren. Dit beperkt risicoās bij foutieve of ongewenste modeluitvoer. Interne richtlijnen en training blijven essentieel.
Voor bedrijven biedt de Amerikaanse defensiepilot een signaal dat generatieve AI verder professionaliseert. Tegelijk laat de stap van Anthropic zien dat de markt juridisch in beweging is. Duidelijke contracten en conformiteit met Europese regels worden daarmee een concurrentievoordeel. Wie dat op orde heeft, kan sneller en veiliger opschalen.
Wat nog onzeker blijft
Onbekend is welke specifieke OpenAI-modellen het Pentagon op korte termijn in productie brengt. Ook is niet duidelijk hoe streng de outputfilters worden en welke datasets worden toegestaan. Zulke keuzes bepalen de bruikbaarheid in de praktijk. Ze beĆÆnvloeden ook de mate van risico op fouten en bias.
Bij Anthropic is de uitkomst van de rechtszaak nog ongewis. De uitspraak kan precedent scheppen voor toekomstige verboden of toelatingseisen. Dat heeft gevolgen voor de hele markt van generatieve systemen. Beleidsmakers volgen de zaak daarom op de voet.
Voor Europa is de grootste vraag hoe de AI Act uitwerkt in grensgevallen, zoals dual-use scenarioās. Nationale toezichthouders zullen hier eigen accenten leggen. Bedrijven en overheden moeten daarop voorsorteren met impactanalyses en technische waarborgen. Zo blijft innovatie mogelijk binnen duidelijke grenzen.
