OpenAI, Google en DeepMind in debat: mag AI beslissen over leven en dood?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • OpenAI, Google en DeepMind in debat: mag AI beslissen over leven en dood?

Amsterdam, 3 maart 2026 17:47 

In Nederland en Europa groeit het debat over de rol van kunstmatige intelligentie bij beslissingen over leven en dood. Beleidsmakers, wetenschappers en vredesorganisaties waarschuwen voor risico’s en vragen om heldere grenzen. De vraag speelt in zorg, politie en vooral het leger. Dit gebeurt terwijl de Europese AI‑verordening in werking treedt en VN-gesprekken over autonome wapens doorgaan, op het moment van schrijven.

AI mag niet beslissen

De kern van de discussie is eenvoudig: een algoritme mag niet zelfstandig over leven en dood beslissen. Dat geldt in oorlog, maar ook in burgerdiensten zoals zorg en politie. Het gaat om systemen die mensen kunnen uitsluiten van hulp, geweld kunnen sturen of dodelijke middelen kunnen inzetten. Zonder stevige waarborgen kan zo’n systeem fouten maken of groepen benadelen.

Vredesorganisaties zoals PAX en het Internationale ComitƩ van het Rode Kruis (ICRC) benadrukken de noodzaak van duidelijke rode lijnen. Zij wijzen op de morele plicht om mensen in controle te houden. Ook juristen waarschuwen dat verantwoordelijkheid en aansprakelijkheid anders onduidelijk worden. Burgers moeten weten wie beslist, en op basis van welke data.

In Europa groeit steun voor ā€œmenselijke controleā€ als norm. Dat betekent dat een mens echt begrijpt wat het systeem doet en tijdig kan ingrijpen. Zo blijft de keuze tot inzet van geweld, of het weigeren van zorg, bij een verantwoordelijke professional. Dit sluit aan bij bestaande mensenrechten en het humanitair oorlogsrecht.

Militair valt buiten verordening

De Europese AI‑verordening (AI Act) reguleert civiele toepassingen, maar sluit defensie uit. Daardoor vallen autonome wapens en doelopsporing in het leger niet onder deze wet. Ethiek en toezicht komen hier vooral van nationale regels en internationale afspraken. Dat laat ruimte, maar ook risico’s voor uiteenlopende normen binnen Europa.

Op VN‑niveau lopen onderhandelingen binnen het CCW‑kader over zogeheten lethal autonomous weapons systems (LAWS). Veel EU‑landen, waaronder Nederland en Duitsland, steunen een verbod op volledig autonome wapens. Zij willen betekenisvolle menselijke controle verplicht stellen bij elke inzet van dodelijk geweld. Tegelijk is er nog geen bindend wereldwijd verdrag, op het moment van schrijven.

Nederland speelt hierin een zichtbare rol via het proces ā€œResponsible AI in the Military Domainā€ (REAIM). Het Ministerie van Defensie benadrukt dat mensen verantwoordelijk moeten blijven en dat auditlogs, tests en training verplicht zijn. Ook de NAVO hanteert principes voor ā€œverantwoord gebruik van AIā€. Toch blijft het gat tussen principes en operationele praktijk een punt van zorg.

Zorgsystemen zijn hoog risico

In de zorg vallen veel AI‑toepassingen onder strenge regels. Het gaat om beslissystemen voor triage, diagnose of toewijzing van zorg, die het verschil kunnen maken tussen leven en dood. Onder de AI‑verordening zijn dit ā€œhoog‑risicoā€ systemen met eisen voor datakwaliteit, uitlegbaarheid en menselijk toezicht. Daarnaast geldt het Europese medisch‑hulpmiddelenrecht (MDR) en toezicht door nationale autoriteiten.

In Nederland kijkt de Inspectie Gezondheidszorg en Jeugd (IGJ) naar veilige toepassing. Ziekenhuizen en leveranciers moeten een risicobeheerproces hebben en hun modellen valideren in de eigen context. Een arts blijft eindverantwoordelijk voor het besluit, niet het datamodel. Training en heldere protocollen zijn nodig om blind vertrouwen te voorkomen.

Gegevensbescherming is een tweede pijler. Patiƫntgegevens vallen onder de AVG en vereisen dataminimalisatie en versleuteling. Ziekenhuizen moeten ook kunnen uitleggen hoe een systeem tot een advies komt. Anders kan een fout of bias direct schade toebrengen aan kwetsbare groepen.

Politie en grenzen beperkt

Voor politie en grensbewaking stelt de AI‑verordening duidelijke grenzen. Real‑time biometrische identificatie in de openbare ruimte mag alleen in uitzonderlijke, streng getoetste gevallen. Biometrische categorisering op gevoelige kenmerken en emotieherkenning op werk en school zijn verboden. Dit heeft directe gevolgen voor overheden en uitvoeringsdiensten in de EU.

Grenssystemen en risicoprofielen vallen vaak in de hoog‑risicoklasse. Organisaties zoals Frontex en nationale diensten moeten daarom extra waarborgen inbouwen. Publieke instellingen die een hoog‑risicosysteem inzetten, moeten een fundamentele‑rechten‑effectbeoordeling uitvoeren. Dat is belangrijk voor de Europese AI‑verordening gevolgen overheid en burgers.

Toch zijn er open vragen over praktijktoezicht en handhaving. Wie controleert of een model echt geen verboden kenmerken gebruikt? En hoe voorkom je dat historische vooroordelen in trainingsdata worden herhaald? De Europese Toezichthouder voor Gegevensbescherming (EDPS) dringt aan op strikte controle en transparantie.

Menselijke controle als norm

De technische uitvoering van ā€œmens in de lusā€ vraagt meer dan een knop. Operators moeten genoeg tijd, informatie en bevoegdheid hebben om een systeem te stoppen of te corrigeren. Logbestanden en beoordelingsdrempels zijn nodig om latere toetsing mogelijk te maken. Zonder deze waarborgen blijft controle theoretisch.

ā€œBetekenisvolle menselijke controle betekent dat een mens verantwoordelijk blijft en effectief kan ingrijpen voordat een dodelijke handeling plaatsvindt.ā€

Ook aansprakelijkheid moet helder zijn. De geüpdatete Europese richtlijn productaansprakelijkheid dekt software en AI‑systemen, op het moment van schrijven. Dat helpt slachtoffers om schade te verhalen bij defecte producten. Daarnaast lopen discussies over specifieke civiele aansprakelijkheid voor AI in de EU.

Transparantie richting gebruikers en publiek is cruciaal. Uitleg in begrijpelijke taal voorkomt schijnzekerheid. Onafhankelijke audits kunnen controleren of een model doet wat het belooft. Dit is nodig om vertrouwen te verdienen, niet alleen te vragen.

Nederland zoekt bindend verdrag

Politiek groeit de druk voor internationale regels. Nederland pleit in EU‑verband en bij de VN voor een juridisch bindend instrument tegen volledig autonome wapens. Totdat zo’n verdrag er is, zijn nationale kaders en inkoopregels de hefboom. Denk aan eis van menselijke controle en uitgebreide tests voordat systemen operationeel gaan.

Het Europees Parlement heeft herhaaldelijk opgeroepen tot een wereldwijd verbod op killer robots. De Raad van de EU en de Europese Commissie ondersteunen verdere normontwikkeling, al valt defensie buiten de AI‑verordening. Intussen ontwikkelen defensie‑industrieĆ«n hulpmiddelen voor doelherkenning en besluitondersteuning. Dat maakt heldere grenzen en toezicht nog urgenter.

De inzet voor de komende jaren is concreet: zorg voor menselijk gezag, technisch afdwingbare remmen en echte verantwoordelijkheid. Combineer EU‑regels (AI‑verordening, AVG) met strikte sectorstandaarden. Houd parlementaire controle en maatschappelijke dialoog levend. Dan blijft technologie hulpmiddel, geen beslisser over leven en dood.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>