Meerdere Nederlandse politieke partijen gebruiken kunstmatige intelligentie bij het schrijven van hun verkiezingsprogramma’s. In deze campagne zetten zij vooral ChatGPT (OpenAI), Gemini (Google) en Claude (Anthropic) in voor ideeën, samenvattingen en taalcontrole. Dit gebeurt binnen partijkantoren in Nederland, veelal zonder publiek overzicht van de inzet. De reden is snelheid en betere leesbaarheid, maar ook de AVG en de Europese AI-verordening spelen mee voor transparantie en zorgvuldigheid.
Gebruik blijft ondersteunend
Campagneteams gebruiken generatieve AI, software die zelf tekst of beeld kan maken, als hulpmiddel. ChatGPT, Gemini en Claude schrijven conceptzinnen, controleren stijl en vertalen passages. Sommigen testen ook open-source modellen zoals Llama 3 van Meta, plus schrijf- en vertaalhulpen als Grammarly en DeepL Write.
De taken zijn meestal beperkt tot brainstormen en redactie. Gehele hoofdstukken automatisch laten schrijven gebeurt minder, door het risico op onjuistheden en een eentonige toon. Menselijke eindredactie en factcheck blijven standaard.
Partijen zetten daarnaast transcriptietools in om bijeenkomsten uit te werken. Denk aan Whisper (OpenAI) en Nederlandse diensten zoals Amberscript. Dit versnelt verslaglegging, maar blijft foutgevoelig en vraagt controle.
Generatieve AI maakt nieuwe tekst, beeld of audio op basis van voorbeelden. Het systeem kan overtuigend klinken én toch onjuiste feiten verzinnen.
Transparantie schiet nog tekort
In veel programma’s staat niet welke algoritmen zijn gebruikt of hoe ze zijn toegepast. Vaak ontbreekt een logboek met gebruikte modellen, prompts en versies. Daardoor is herleidbaarheid en uitleg naar kiezers beperkt.
Toezichthouders zoals de Kiesraad en de Autoriteit Persoonsgegevens benadrukken dat transparantie het vertrouwen vergroot. Een korte toelichting bij elk document helpt: welke tool is gebruikt, met welk doel, en wie deed de eindredactie. Zo wordt duidelijk wat het model deed en wat mensen deden.
Partijen kunnen ook provenance-tools overwegen die herkomst van tekst en beeld vastleggen. Denk aan watermerken of bestandsmetadata die aangeven of AI is gebruikt. Dit voorkomt misverstanden over auteurschap.
AVG stelt duidelijke grenzen
Wie AI inzet voor campagneteksten verwerkt snel persoonsgegevens, bijvoorbeeld namen of functietitels in interne notities. De AVG vereist dataminimalisatie, doelbinding en, bij externe leveranciers, een verwerkersovereenkomst. Bijzondere gegevens, zoals politieke opvattingen van leden, horen niet in prompts thuis.
Consumentenversies van ChatGPT of Gemini sturen gegevens naar de cloud. Zakelijke varianten zoals ChatGPT Team of Vertex AI bieden extra instellingen, zoals het uitschakelen van trainingsgebruik en datalocatie-opties. Toch blijft het advies: voer zo min mogelijk herleidbare informatie in.
Beveiliging alleen is niet genoeg. Ook auteursrecht telt mee bij het hergebruiken van AI-gegenereerde passages. Laat teksten juridisch en inhoudelijk toetsen voor publicatie.
AI-verordening stuurt campagnes
De Europese AI-verordening (AI Act) legt plichten op aan algemeen-doelmodellen zoals GPT-4o en Llama 3. Leveranciers moeten informatie geven over risico’s en technische beperkingen. Campagneteams kunnen die informatie gebruiken om modellen bewust te kiezen.
Voor synthetische media geldt een labelplicht: deepfakes en stemklonen moeten als zodanig herkenbaar zijn. Dit sluit aan op de Digital Services Act en nieuwe EU-regels voor politieke reclame over transparantie. Partijen die AI-beeld of -audio inzetten, moeten dat dus duidelijk vermelden.
Voor de overheid zijn de gevolgen extra groot. Ambtenaren die AI gebruiken voor communicatie of beleidsnotities rond verkiezingen moeten rekening houden met risicoklassen en zorgplicht. Dit raakt direct de “Europese AI-verordening gevolgen overheid” in de dagelijkse praktijk.
Kwaliteit vraagt menselijk toezicht
AI-systemen kunnen hallucineren: ze verzinnen feiten die niet kloppen. Daarom werken redacties met vaste controles, zoals bronvermelding en een tweede-lezer-principe. Factchecklijsten en bronnenoverzichten verkleinen de foutkans.
Technische hulpmiddelen helpen om kwaliteit te bewaken. Een stijl- en feitencheck met meerdere modellen kan inconsistenties zichtbaar maken. Toch blijft de eindbeslissing bij de menselijke redactie.
Ook planning en versiebeheer zijn belangrijk. Leg vast welke AI-versie is gebruikt, omdat modellen snel veranderen. Dit maakt latere correcties en verantwoording eenvoudiger.
Kiezers willen duidelijkheid
Voor kiezers is helderheid over AI-gebruik een kwestie van vertrouwen. Een korte AI-notitie per hoofdstuk of document geeft die duidelijkheid. Zo zien lezers wie verantwoordelijk is en hoe de tekst tot stand kwam.
Partijen kunnen een publiek AI-beleid publiceren met do’s en don’ts. Bijvoorbeeld: geen ongecontroleerde AI-teksten, altijd menselijke eindredactie en broncontrole. Dat sluit aan bij komende EU-eisen en verwachtingen van burgers.
De inzet van AI in politiek schrijven zal groeien, maar niet zonder spelregels. Wie nu inzet, logging en verantwoording goed regelt, voorkomt later problemen. En belangrijker: het houdt het gesprek met de kiezer eerlijk en begrijpelijk.
