In Nederland en Europa groeit het debat over de rol van kunstmatige intelligentie bij beslissingen over leven en dood. Beleidsmakers, wetenschappers en vredesorganisaties waarschuwen voor risicoās en vragen om heldere grenzen. De vraag speelt in zorg, politie en vooral het leger. Dit gebeurt terwijl de Europese AIāverordening in werking treedt en VN-gesprekken over autonome wapens doorgaan, op het moment van schrijven.
AI mag niet beslissen
De kern van de discussie is eenvoudig: een algoritme mag niet zelfstandig over leven en dood beslissen. Dat geldt in oorlog, maar ook in burgerdiensten zoals zorg en politie. Het gaat om systemen die mensen kunnen uitsluiten van hulp, geweld kunnen sturen of dodelijke middelen kunnen inzetten. Zonder stevige waarborgen kan zoān systeem fouten maken of groepen benadelen.
Vredesorganisaties zoals PAX en het Internationale ComitƩ van het Rode Kruis (ICRC) benadrukken de noodzaak van duidelijke rode lijnen. Zij wijzen op de morele plicht om mensen in controle te houden. Ook juristen waarschuwen dat verantwoordelijkheid en aansprakelijkheid anders onduidelijk worden. Burgers moeten weten wie beslist, en op basis van welke data.
In Europa groeit steun voor āmenselijke controleā als norm. Dat betekent dat een mens echt begrijpt wat het systeem doet en tijdig kan ingrijpen. Zo blijft de keuze tot inzet van geweld, of het weigeren van zorg, bij een verantwoordelijke professional. Dit sluit aan bij bestaande mensenrechten en het humanitair oorlogsrecht.
Militair valt buiten verordening
De Europese AIāverordening (AI Act) reguleert civiele toepassingen, maar sluit defensie uit. Daardoor vallen autonome wapens en doelopsporing in het leger niet onder deze wet. Ethiek en toezicht komen hier vooral van nationale regels en internationale afspraken. Dat laat ruimte, maar ook risicoās voor uiteenlopende normen binnen Europa.
Op VNāniveau lopen onderhandelingen binnen het CCWākader over zogeheten lethal autonomous weapons systems (LAWS). Veel EUālanden, waaronder Nederland en Duitsland, steunen een verbod op volledig autonome wapens. Zij willen betekenisvolle menselijke controle verplicht stellen bij elke inzet van dodelijk geweld. Tegelijk is er nog geen bindend wereldwijd verdrag, op het moment van schrijven.
Nederland speelt hierin een zichtbare rol via het proces āResponsible AI in the Military Domainā (REAIM). Het Ministerie van Defensie benadrukt dat mensen verantwoordelijk moeten blijven en dat auditlogs, tests en training verplicht zijn. Ook de NAVO hanteert principes voor āverantwoord gebruik van AIā. Toch blijft het gat tussen principes en operationele praktijk een punt van zorg.
Zorgsystemen zijn hoog risico
In de zorg vallen veel AIātoepassingen onder strenge regels. Het gaat om beslissystemen voor triage, diagnose of toewijzing van zorg, die het verschil kunnen maken tussen leven en dood. Onder de AIāverordening zijn dit āhoogārisicoā systemen met eisen voor datakwaliteit, uitlegbaarheid en menselijk toezicht. Daarnaast geldt het Europese medischāhulpmiddelenrecht (MDR) en toezicht door nationale autoriteiten.
In Nederland kijkt de Inspectie Gezondheidszorg en Jeugd (IGJ) naar veilige toepassing. Ziekenhuizen en leveranciers moeten een risicobeheerproces hebben en hun modellen valideren in de eigen context. Een arts blijft eindverantwoordelijk voor het besluit, niet het datamodel. Training en heldere protocollen zijn nodig om blind vertrouwen te voorkomen.
Gegevensbescherming is een tweede pijler. Patiƫntgegevens vallen onder de AVG en vereisen dataminimalisatie en versleuteling. Ziekenhuizen moeten ook kunnen uitleggen hoe een systeem tot een advies komt. Anders kan een fout of bias direct schade toebrengen aan kwetsbare groepen.
Politie en grenzen beperkt
Voor politie en grensbewaking stelt de AIāverordening duidelijke grenzen. Realātime biometrische identificatie in de openbare ruimte mag alleen in uitzonderlijke, streng getoetste gevallen. Biometrische categorisering op gevoelige kenmerken en emotieherkenning op werk en school zijn verboden. Dit heeft directe gevolgen voor overheden en uitvoeringsdiensten in de EU.
Grenssystemen en risicoprofielen vallen vaak in de hoogārisicoklasse. Organisaties zoals Frontex en nationale diensten moeten daarom extra waarborgen inbouwen. Publieke instellingen die een hoogārisicosysteem inzetten, moeten een fundamenteleārechtenāeffectbeoordeling uitvoeren. Dat is belangrijk voor de Europese AIāverordening gevolgen overheid en burgers.
Toch zijn er open vragen over praktijktoezicht en handhaving. Wie controleert of een model echt geen verboden kenmerken gebruikt? En hoe voorkom je dat historische vooroordelen in trainingsdata worden herhaald? De Europese Toezichthouder voor Gegevensbescherming (EDPS) dringt aan op strikte controle en transparantie.
Menselijke controle als norm
De technische uitvoering van āmens in de lusā vraagt meer dan een knop. Operators moeten genoeg tijd, informatie en bevoegdheid hebben om een systeem te stoppen of te corrigeren. Logbestanden en beoordelingsdrempels zijn nodig om latere toetsing mogelijk te maken. Zonder deze waarborgen blijft controle theoretisch.
āBetekenisvolle menselijke controle betekent dat een mens verantwoordelijk blijft en effectief kan ingrijpen voordat een dodelijke handeling plaatsvindt.ā
Ook aansprakelijkheid moet helder zijn. De geüpdatete Europese richtlijn productaansprakelijkheid dekt software en AIāsystemen, op het moment van schrijven. Dat helpt slachtoffers om schade te verhalen bij defecte producten. Daarnaast lopen discussies over specifieke civiele aansprakelijkheid voor AI in de EU.
Transparantie richting gebruikers en publiek is cruciaal. Uitleg in begrijpelijke taal voorkomt schijnzekerheid. Onafhankelijke audits kunnen controleren of een model doet wat het belooft. Dit is nodig om vertrouwen te verdienen, niet alleen te vragen.
Nederland zoekt bindend verdrag
Politiek groeit de druk voor internationale regels. Nederland pleit in EUāverband en bij de VN voor een juridisch bindend instrument tegen volledig autonome wapens. Totdat zoān verdrag er is, zijn nationale kaders en inkoopregels de hefboom. Denk aan eis van menselijke controle en uitgebreide tests voordat systemen operationeel gaan.
Het Europees Parlement heeft herhaaldelijk opgeroepen tot een wereldwijd verbod op killer robots. De Raad van de EU en de Europese Commissie ondersteunen verdere normontwikkeling, al valt defensie buiten de AIāverordening. Intussen ontwikkelen defensieāindustrieĆ«n hulpmiddelen voor doelherkenning en besluitondersteuning. Dat maakt heldere grenzen en toezicht nog urgenter.
De inzet voor de komende jaren is concreet: zorg voor menselijk gezag, technisch afdwingbare remmen en echte verantwoordelijkheid. Combineer EUāregels (AIāverordening, AVG) met strikte sectorstandaarden. Houd parlementaire controle en maatschappelijke dialoog levend. Dan blijft technologie hulpmiddel, geen beslisser over leven en dood.
