Het Amerikaanse ministerie van Defensie draait een aangepaste versie van Claude, het taalmodel van Anthropic. De variant zou intern al enkele generaties vooruit zijn op de consumentenversie. Het systeem wordt ingezet in afgeschermde omgevingen voor analyse, samenvattingen en planning. Dit roept vragen op over de Europese AI-verordening en de gevolgen voor overheid en defensie, ook in Nederland.
Pentagon gebruikt aangepaste Claude
Het Pentagon gebruikt Claude in een gesloten netwerk voor taken als documentanalyse, vertaling, codecontrole en rapportage. Claude is een groot taalmodel: software die tekst begrijpt en schrijft op basis van patronen in data. De inzet is bedoeld om werkdruk te verlagen en sneller tot beslisinformatie te komen. Menselijke controle blijft daarbij noodzakelijk.
De gebruikte Claude-versie is naar verluidt nieuwer dan wat publiek beschikbaar is. Zulke vroege versies krijgen vaak extra functies, zoals langere context en betere redeneerhulpen. De modellen draaien meestal op speciale hardware in datacenters met strenge toegang. Zo kan het ministerie gevoelige gegevens binnen de eigen beveiligingslaag houden.
De consumentenversie van Claude is gericht op brede toepasbaarheid en strikte veiligheidsfilters. De defensie-implementatie kan andere grenzen en instellingen hebben, afgestemd op operationele eisen. Denk aan maatwerkpropten, specialistische woordenlijsten en integratie met interne tools. Dit maakt de kloof met het publieke product groter.
Wat ‘generaties vooruit’ betekent
Bij AI-modellen staat een nieuwe generatie voor een flinke sprong in capaciteiten, bijvoorbeeld meer data, betere trainingsmethodes en langere contextvensters. Een contextvenster is de hoeveelheid tekst die het model in één keer kan meenemen. Een groter venster helpt bij lange dossiers en meertalige stukken. Ook de nauwkeurigheid bij redeneren kan toenemen.
Hoeveel beter zo’n model is, blijkt vaak uit benchmarks, maar die zijn in overheidsprojecten zelden openbaar. Veiligheidstesten, ook wel red-teaming genoemd, zoeken systematisch naar fouten en kwetsbaarheden. Denk aan misleidende antwoorden of het lekken van gevoelige informatie. De uitkomsten bepalen of een model breder kan worden gebruikt.
Voor defensietaken zijn betrouwbaarheid en robuustheid belangrijker dan een slimme demo. Het model moet lange ketens van feiten blijven volgen zonder te ontsporen. Multimodale functies, zoals het combineren van tekst en tabellen, leveren extra waarde bij inlichtingenanalyse. Maar elke stap vereist loggen, herhaalbaarheid en verifieerbare bronnen.
Nieuwe generaties brengen ook meer besturing mee, zoals strakkere systeeminstructies en gecontroleerde tool-calls. Tool-calls zijn opdrachten waarmee het model veilige hulpfuncties aanroept, bijvoorbeeld een databasezoekopdracht. Zo wordt het antwoord herleidbaar en controleerbaar. Dat vermindert de kans op hallucinaties.
Beveiliging staat centraal
Defensie-implementaties draaien vaak in een zogeheten air-gapped of streng gescheiden cloudomgeving. Gegevens worden versleuteld opgeslagen en verwerkt, met uitgebreide auditlogs. Toegang is beperkt tot geautoriseerd personeel en systemen. Dit verkleint het risico op datalekken en ongewenste modeltraining met gevoelige data.
Voor Europese partners spelen extra regels. Zodra persoonsgegevens worden verwerkt, gelden AVG-principes zoals dataminimalisatie en doelbinding. Dat vraagt strikte filters, bewaartermijnen en DPIA’s, ook bij proefprojecten. Bij uitwisseling met Amerikaanse systemen is een geldige grondslag nodig, bijvoorbeeld het EU‑VS Data Privacy Framework.
De Europese AI-verordening (AI Act) sluit nationale veiligheid grotendeels uit van het toepassingsbereik. Toch raken inkoop, transparantie en risicobeheer wel de overheid, inclusief civiele diensten. “Europese AI-verordening gevolgen overheid” betekent in de praktijk: documenteer gebruik, begrens risico’s en borg menselijk toezicht. Defensie kan vrijwillig aansluiten bij deze standaarden om interoperabiliteit te vergroten.
Voor Nederland zijn NAVO-samenwerking en soevereine cloudoplossingen relevant. Dataresidentie en controle over updates moeten contractueel worden vastgelegd. Testfaciliteiten van Defensie en kennisinstellingen kunnen samen evaluaties uitvoeren. Zo blijft de keten van beleid tot techniek aantoonbaar veilig.
Risico’s blijven aanwezig
Grote taalmodellen kunnen nog steeds verzinsels geven, ook als ze overtuigend klinken. Zonder bronverwijzing en controlevragen ligt misinterpretatie op de loer. Integratie met betrouwbare databronnen en verplicht citeren helpen dat te beperken. Menselijke experts moeten eindverantwoordelijk blijven.
Vooringenomenheid in trainingsdata kan leiden tot scheve uitkomsten. Foutieve vertalingen of verkeerde prioriteiten zijn dan moeilijk zichtbaar. Daarom zijn bias-tests en diverse evaluatieteams nodig. Logboeken en reviewprocedures maken fouten sneller traceerbaar.
Automatiseringsbias is een extra risico: gebruikers vertrouwen het systeem te snel. Heldere procedures voor escalatie en stopzetting zijn essentieel. Human-in-the-loop betekent dat een mens elke belangrijke stap mag tegenhouden. Dit moet in software en organisatie worden afgedwongen.
Het trainen en inzetten van de krachtigste modellen kost inmiddels tientallen miljoenen euro’s en vergt veel energie. Dat vraagt om keuzes: wat moet lokaal, wat kan gedeeld, en wat blijft handmatig?
Wat dit voor EU betekent
Europese ministeries en Nederlandse overheden kunnen leren van deze vroege inzet. Leg in contracten vast welke modelversie draait, hoe updates worden goedgekeurd en hoe incidenten worden gemeld. Eis onafhankelijke evaluatiesets en periodieke testrapporten. Maak eigenaarschap over data en logbestanden expliciet.
Kies voor gefaseerde pilots met duidelijke exitcriteria. Overweeg hybride of on-premises inzet voor gevoelige gegevens. Beperk datastromen naar buiten en gebruik synthetische of geanonimiseerde data waar mogelijk. Installeer een ‘kill switch’ en definieer roll-back procedures bij onverwacht gedrag.
Voor civiele toepassingen gelden AI Act-verplichtingen, zoals risicobeheer en transparantie richting burgers. Het Nederlandse Algoritmeregister en interne modelcatalogi helpen overzicht te houden, al vallen vertrouwelijke systemen vaak buiten publieke inzage. Een interne auditplicht kan dat gat dichten. Zo blijft verantwoording op peil zonder veiligheid te schaden.
De kloof tussen publieke en besloten AI-capaciteiten zal groeien. Dat vraagt om Europese testcentra, gedeelde benchmarks en interoperabele standaarden. Met strakke governance kan de overheid profiteren van snellere analyse, zonder de regie op veiligheid en grondrechten te verliezen. Voor Nederland is het moment nu om afspraken, tooling en talent op orde te brengen.
