Rathenau eist: label AI-content van politieke partijen

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Rathenau eist: label AI-content van politieke partijen

Amsterdam, 15 oktober 2025 15:11 

Mariette van Huijstee van het Rathenau Instituut roept politieke partijen in Nederland op om AI-gegenereerde content duidelijk te labelen. Zij wil dat kiezers zien wanneer tekst, beeld of audio is gemaakt met tools zoals ChatGPT of Midjourney. De oproep komt nu campagnes digitaler worden en deepfakes vaker opduiken. Dit sluit aan bij de Europese AI-verordening en nieuwe regels voor politieke advertenties, met gevolgen voor overheid en partijen.

Partijen moeten AI labelen

Het Rathenau Instituut waarschuwt dat onduidelijke inzet van algoritmen het vertrouwen in verkiezingen kan schaden. Labeling helpt kiezers te begrijpen wat zij zien en waarop zij hun oordeel baseren. Het gaat om simpele, zichtbare markeringen: ā€œgemaakt met AIā€ of ā€œbeeld gemanipuleerd door een systeemā€. Zo wordt misleiding kleiner en kan debat zuiverder blijven.

Van Huijstee benadrukt dat AI al in veel campagnetaken zit, van tekstschrijven tot beeldbewerking. Zonder toelichting kunnen kiezers AI-content niet van echt onderscheiden. Duidelijke labels maken de herkomst en bedoeling transparant. Dat is nodig in de drukke informatiestroom rond verkiezingen.

Een zelfgekozen norm van partijen kan snel effect hebben, ook buiten betaalde advertenties. Denk aan posts op X, Instagram en TikTok, maar ook aan flyers en websites. Hoe eerder partijen dit standaardiseren, hoe beter de voorbereiding op strengere Europese regels.

EU-wetten verplichten transparantie

De Europese AI-verordening (AI Act) eist dat aanbieders en gebruikers van ā€œdeepfakesā€ duidelijk maken dat content door AI is gemaakt of gemanipuleerd. AI die kiezers probeert te beĆÆnvloeden, valt in een hoge risicoklasse met extra verplichtingen. Dat raakt politieke partijen, campagnebureaus en techleveranciers in de EU. Voor overheden betekent dit nieuwe inkoop- en compliance-eisen.

Daarnaast komt de EU-verordening over politieke advertenties (2024) met strenge transparantie-eisen. Politieke ads moeten herkenbaar zijn en informatie geven over opdrachtgever, budget en doelgroep. Fijnmazige targeting op gevoelige data wordt beperkt. Dit alles sluit aan bij de AVG, die strenge regels stelt aan het verwerken van politieke opvattingen.

De Digital Services Act verplicht grote platforms om risico’s rond desinformatie en verkiezingsintegriteit te beperken. Platforms moeten tools bieden voor ad-transparantie en misleidende praktijken aanpakken. Labeling door partijen maakt deze maatregelen effectiever. Het helpt ook bij snelle moderatie als nepcontent rondgaat.

Risico’s van deepfakes in campagnes

Deepfakes kunnen kiezers misleiden met levensechte, maar valse beelden of stemmen. Het risico is groter in de laatste weken voor een stemming. Dan is er weinig tijd om desinformatie te weerleggen. Eenvoudige labels en snelle rectificaties verkleinen de schade.

Definitie: een deepfake is een realistisch gemanipuleerd beeld, geluidsfragment of video, gemaakt met algoritmen die bestaande data leren en nabootsen.

Detectietools voor deepfakes zijn nuttig, maar nog niet feilloos. Daarom is brontransparantie belangrijker dan alleen technische opsporing. Watermerken en herkomstdata (zoals C2PA-standaarden) helpen bewijs vast te leggen. Toch blijft menselijke controle nodig.

Ook ā€œcheapfakesā€ – simpel bewerkt of uit context gehaald materiaal – zijn schadelijk. Labeling van AI-content lost dit niet alleen op, maar verhoogt wel de algemene mediageletterdheid. Partijen kunnen dit combineren met heldere uitleg aan volgers en pers. Zo ontstaat een nieuwe campagne-etiquette.

Praktische opties voor herkenbaarheid

Begin met vaste disclaimers: ā€œDeze afbeelding is gegenereerd met Midjourneyā€, of ā€œDeze tekst is herschreven met ChatGPTā€. Zet het label zichtbaar in de post, video of flyer. Link naar een uitlegpagina over gebruikte systemen en datamodellen. Zo kan de kiezer keuzes beter wegen.

Gebruik herkomsttechniek waar mogelijk: C2PA-provenance, OpenAI-watermerken of Google SynthID voor beeld en audio. Dit voegt technische metadata toe. Combineer dit met intern versiebeheer en archivering. Dan is achteraf verifiƫren mogelijk, bijvoorbeeld bij klachten.

Maak binnen de partij duidelijke rollen en checks. Leg vast wanneer AI wel of niet is toegestaan, en hoe data wordt beschermd. Train vrijwilligers en bureaus op AVG-regels en bias-risico’s. Een kort beslisschema voorkomt fouten in de hectiek van de campagne.

Toezicht in Nederland is versnipperd

In Nederland raken meerdere toezichthouders aan dit onderwerp. De Autoriteit Persoonsgegevens let op targeting en dataverwerking onder de AVG. Het Commissariaat voor de Media en de Kiesraad hebben rollen bij media, reclame en verkiezingsproces. Duidelijke labeling maakt hun werk eenvoudiger en vergroot naleving.

Voor partijen en overheid is het nuttig om ƩƩn aanspreekpunt te organiseren. Denk aan een gezamenlijke richtlijn van BZK, Kiesraad en toezichthouders voor campagne-inzet van AI. Daarin staan transparantie-eisen, voorbeeldlabels en klachtenroutes. Dit helpt ook lokale afdelingen en kleinere partijen.

Gemeenten en uitvoeringsorganisaties krijgen hiermee praktische handvatten. Bijvoorbeeld voor het modereren van reacties of het herkennen van gemanipuleerde inzendingen bij participatietrajecten. Zo blijft het publieke debat open, maar minder kwetsbaar. En burgers weten beter waar informatie vandaan komt.

Gevolgen voor overheid en kiezers

Voor overheden betekent de Europese AI-verordening gevolgen bij inkoop en communicatie. Systemen die voor publieksinformatie worden ingezet, moeten aan transparantieregels voldoen. Zeker als er synthetische media worden gebruikt. Een vaste labelpraktijk voorkomt later aanpassingskosten.

Kiezers krijgen met labels houvast in een onoverzichtelijke informatiestroom. Zij kunnen beter inschatten wat echt is en wat door een model is gegenereerd. Dat versterkt het publieke vertrouwen, ook als AI vaker wordt ingezet. Heldere bronvermelding wordt zo een democratische basisregel.

De oproep van het Rathenau Instituut is praktisch en uitvoerbaar. Partijen kunnen vandaag al beginnen, los van platformregels of handhaving. Wie nu transparant is, loopt straks vooruit op de AI Act en de EU-regels voor politieke advertenties. En zet een norm waar kiezers op kunnen rekenen.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>