Mariette van Huijstee van het Rathenau Instituut roept politieke partijen in Nederland op om AI-gegenereerde content duidelijk te labelen. Zij wil dat kiezers zien wanneer tekst, beeld of audio is gemaakt met tools zoals ChatGPT of Midjourney. De oproep komt nu campagnes digitaler worden en deepfakes vaker opduiken. Dit sluit aan bij de Europese AI-verordening en nieuwe regels voor politieke advertenties, met gevolgen voor overheid en partijen.
Partijen moeten AI labelen
Het Rathenau Instituut waarschuwt dat onduidelijke inzet van algoritmen het vertrouwen in verkiezingen kan schaden. Labeling helpt kiezers te begrijpen wat zij zien en waarop zij hun oordeel baseren. Het gaat om simpele, zichtbare markeringen: āgemaakt met AIā of ābeeld gemanipuleerd door een systeemā. Zo wordt misleiding kleiner en kan debat zuiverder blijven.
Van Huijstee benadrukt dat AI al in veel campagnetaken zit, van tekstschrijven tot beeldbewerking. Zonder toelichting kunnen kiezers AI-content niet van echt onderscheiden. Duidelijke labels maken de herkomst en bedoeling transparant. Dat is nodig in de drukke informatiestroom rond verkiezingen.
Een zelfgekozen norm van partijen kan snel effect hebben, ook buiten betaalde advertenties. Denk aan posts op X, Instagram en TikTok, maar ook aan flyers en websites. Hoe eerder partijen dit standaardiseren, hoe beter de voorbereiding op strengere Europese regels.
EU-wetten verplichten transparantie
De Europese AI-verordening (AI Act) eist dat aanbieders en gebruikers van ādeepfakesā duidelijk maken dat content door AI is gemaakt of gemanipuleerd. AI die kiezers probeert te beĆÆnvloeden, valt in een hoge risicoklasse met extra verplichtingen. Dat raakt politieke partijen, campagnebureaus en techleveranciers in de EU. Voor overheden betekent dit nieuwe inkoop- en compliance-eisen.
Daarnaast komt de EU-verordening over politieke advertenties (2024) met strenge transparantie-eisen. Politieke ads moeten herkenbaar zijn en informatie geven over opdrachtgever, budget en doelgroep. Fijnmazige targeting op gevoelige data wordt beperkt. Dit alles sluit aan bij de AVG, die strenge regels stelt aan het verwerken van politieke opvattingen.
De Digital Services Act verplicht grote platforms om risicoās rond desinformatie en verkiezingsintegriteit te beperken. Platforms moeten tools bieden voor ad-transparantie en misleidende praktijken aanpakken. Labeling door partijen maakt deze maatregelen effectiever. Het helpt ook bij snelle moderatie als nepcontent rondgaat.
Risicoās van deepfakes in campagnes
Deepfakes kunnen kiezers misleiden met levensechte, maar valse beelden of stemmen. Het risico is groter in de laatste weken voor een stemming. Dan is er weinig tijd om desinformatie te weerleggen. Eenvoudige labels en snelle rectificaties verkleinen de schade.
Definitie: een deepfake is een realistisch gemanipuleerd beeld, geluidsfragment of video, gemaakt met algoritmen die bestaande data leren en nabootsen.
Detectietools voor deepfakes zijn nuttig, maar nog niet feilloos. Daarom is brontransparantie belangrijker dan alleen technische opsporing. Watermerken en herkomstdata (zoals C2PA-standaarden) helpen bewijs vast te leggen. Toch blijft menselijke controle nodig.
Ook ācheapfakesā ā simpel bewerkt of uit context gehaald materiaal ā zijn schadelijk. Labeling van AI-content lost dit niet alleen op, maar verhoogt wel de algemene mediageletterdheid. Partijen kunnen dit combineren met heldere uitleg aan volgers en pers. Zo ontstaat een nieuwe campagne-etiquette.
Praktische opties voor herkenbaarheid
Begin met vaste disclaimers: āDeze afbeelding is gegenereerd met Midjourneyā, of āDeze tekst is herschreven met ChatGPTā. Zet het label zichtbaar in de post, video of flyer. Link naar een uitlegpagina over gebruikte systemen en datamodellen. Zo kan de kiezer keuzes beter wegen.
Gebruik herkomsttechniek waar mogelijk: C2PA-provenance, OpenAI-watermerken of Google SynthID voor beeld en audio. Dit voegt technische metadata toe. Combineer dit met intern versiebeheer en archivering. Dan is achteraf verifiƫren mogelijk, bijvoorbeeld bij klachten.
Maak binnen de partij duidelijke rollen en checks. Leg vast wanneer AI wel of niet is toegestaan, en hoe data wordt beschermd. Train vrijwilligers en bureaus op AVG-regels en bias-risicoās. Een kort beslisschema voorkomt fouten in de hectiek van de campagne.
Toezicht in Nederland is versnipperd
In Nederland raken meerdere toezichthouders aan dit onderwerp. De Autoriteit Persoonsgegevens let op targeting en dataverwerking onder de AVG. Het Commissariaat voor de Media en de Kiesraad hebben rollen bij media, reclame en verkiezingsproces. Duidelijke labeling maakt hun werk eenvoudiger en vergroot naleving.
Voor partijen en overheid is het nuttig om ƩƩn aanspreekpunt te organiseren. Denk aan een gezamenlijke richtlijn van BZK, Kiesraad en toezichthouders voor campagne-inzet van AI. Daarin staan transparantie-eisen, voorbeeldlabels en klachtenroutes. Dit helpt ook lokale afdelingen en kleinere partijen.
Gemeenten en uitvoeringsorganisaties krijgen hiermee praktische handvatten. Bijvoorbeeld voor het modereren van reacties of het herkennen van gemanipuleerde inzendingen bij participatietrajecten. Zo blijft het publieke debat open, maar minder kwetsbaar. En burgers weten beter waar informatie vandaan komt.
Gevolgen voor overheid en kiezers
Voor overheden betekent de Europese AI-verordening gevolgen bij inkoop en communicatie. Systemen die voor publieksinformatie worden ingezet, moeten aan transparantieregels voldoen. Zeker als er synthetische media worden gebruikt. Een vaste labelpraktijk voorkomt later aanpassingskosten.
Kiezers krijgen met labels houvast in een onoverzichtelijke informatiestroom. Zij kunnen beter inschatten wat echt is en wat door een model is gegenereerd. Dat versterkt het publieke vertrouwen, ook als AI vaker wordt ingezet. Heldere bronvermelding wordt zo een democratische basisregel.
De oproep van het Rathenau Instituut is praktisch en uitvoerbaar. Partijen kunnen vandaag al beginnen, los van platformregels of handhaving. Wie nu transparant is, loopt straks vooruit op de AI Act en de EU-regels voor politieke advertenties. En zet een norm waar kiezers op kunnen rekenen.
