Politieke partijen en campagnebureaus in Nederland zetten deze campagneperiode veel kunstmatige intelligentie in. Ze gebruiken tools als ChatGPT en Midjourney voor teksten, posters en video’s op sociale media. Dat gebeurt vooral online en lokaal, waar snelheid telt en budgetten klein zijn. Het levert winst op in tijd en bereik, maar ook fouten en risico’s, met gevolgen voor de Europese AI-verordening en overheidstoezicht.
AI-gebruik groeit snel
Campagneteams laten teksten schrijven met ChatGPT van OpenAI. Beeldgeneratoren zoals Midjourney en DALL·E maken posters en social visuals in minuten. Audio wordt soms nagebootst met ElevenLabs, een stemkloner. Deze systemen automatiseren drukwerk en social posts die normaal dagen kosten.
De lage kosten en snelheid geven partijen een voordeel. Lokale afdelingen kunnen boodschappen snel aanpassen per wijk of thema. Dat vergroot de zichtbaarheid op Facebook, Instagram en TikTok. Het zorgt ook voor meer experimenteel materiaal, van korte reels tot AI-avatars.
Toch is de kwaliteit wisselend. Taalmodellen kunnen verzinnen wat niet klopt, een fout die “hallucinatie” heet. Beeldmodellen hebben moeite met handen, logo’s en details. Daardoor sluipen er onjuistheden en vreemde beelden in campagne-uitingen.
Nieuwe AI-tool werkt nog gebrekkig
AI-systemen begrijpen context vaak maar deels. Ze missen nuance over beleid, cijfers en lokale dossiers. Dat levert teksten op die vlak of net onjuist zijn. Factchecken kost tijd die teams niet altijd hebben.
Video en audio kloppen technisch steeds beter, maar blijven kwetsbaar. Stemklonen kunnen woorden onnatuurlijk leggen of toon missen. Beeldmontages zien er geloofwaardig uit, maar kleine artefacten verraden het. Het risico op misleiding blijft daardoor aanwezig.
Detectietools om deepfakes te herkennen lopen achter. Watermerken en metadata ontbreken vaak als content via meerdere apps gaat. Daardoor is herkomstcontrole moeilijk, vooral voor kiezers die snel scrollen. Mediaredacties en toezichthouders moeten extra alert zijn.
Labelen verplicht volgens AI Act
De Europese AI-verordening verplicht transparantie bij synthetische media. Deepfakes moeten duidelijk gelabeld zijn, zodat mensen weten dat de inhoud gemaakt of bewerkt is door een algoritme. Die regels treden gefaseerd in werking, op het moment van schrijven. Campagnes die nu al labelen, verkleinen juridische en reputatierisico’s.
Diepe nepcontent en andere synthetische media moeten duidelijk als kunstmatig gegenereerd of gemanipuleerd worden aangeduid.
Grote platforms vallen ook onder de Digital Services Act. Zij moeten politieke desinformatie terugdringen en herkomst van advertenties tonen. De nieuwe EU-verordening over politieke advertenties scherpt de transparantie verder aan. Campagnes zonder duidelijke herkomst of targeting-informatie worden lastiger te plaatsen.
Voor partijen betekent dit meer administratie en controle. Ze moeten versies met en zonder AI netjes bijhouden. En ze hebben beleid nodig voor labels en archivering. Dat maakt processen zwaarder, maar geeft kiezers meer duidelijkheid.
Privacy en microtargeting onder druk
De AVG ziet politieke opvattingen als bijzondere persoonsgegevens. Gebruik voor targeting is in principe verboden zonder uitdrukkelijke toestemming. Profielen die zulke opvattingen afleiden uit online gedrag zijn dus risicovol. De Autoriteit Persoonsgegevens houdt toezicht en kan boetes opleggen.
Partijen werken meestal met platformdoelgroepen op basis van interesse en locatie. Dat lijkt veilig, maar kan alsnog gevoelige groepen raken. Dataminimalisatie en versleuteling zijn daarom belangrijk. Ook moeten leveranciers van datamodellen duidelijk maken welke gegevens zijn gebruikt.
Campagnetools die automatisch profielen aanmaken, vallen sneller in de gevarenzone. Een simpele “lookalike-audience” kan al politieke voorkeuren afleiden. Juridisch is dat kwetsbaar, zelfs zonder expliciete labels. Interne DPIA’s, een privacytoets, zijn hier verstandig.
Kiezer heeft houvast nodig
Voor kiezers is herkomstinformatie essentieel. Een duidelijk label of link naar de bron helpt bij duiden. Redacties en factcheckers gebruiken steeds vaker AI-detectie. Toch blijft gezond wantrouwen bij opvallende audio of video nodig.
Overheid en onderwijs investeren in mediawijsheid. Korte uitleg over wat een taalmodel is, helpt al. Een taalmodel is software die op basis van voorbeeldteksten nieuwe zinnen voorspelt. Zo begrijpen kiezers beter hoe fouten ontstaan.
Lokale debatten en onafhankelijke informatie blijven de basis. Zij geven context die AI-content mist. Kieshulpen en partijprogramma’s zijn controleerbaar en herleidbaar. Dat maakt hen een goed anker naast snelle social content.
Campagnes vragen nieuw vakmanschap
Partijen hebben richtlijnen nodig voor AI-gebruik. Denk aan verplichte labels, bronnen voor feiten en een mens die eindredactie doet. Ook hoort er logging bij: welke tool, welke prompt, welke wijzigingen. Dat helpt bij klachten en controle achteraf.
Leveranciers moeten transparanter zijn over hun modellen. Open documentatie over datatraining en beperkingen voorkomt misbruik. Watermerken en standaardmetadata maken herkomstcontrole makkelijker. Open en gesloten modellen kunnen dan beter naast elkaar bestaan.
Tot slot is toezicht cruciaal. De Kiesraad, de Autoriteit Persoonsgegevens en Europese toezichthouders krijgen een grotere rol. Zij moeten techniek en regels laten aansluiten op de praktijk. Zo kan AI helpen in de campagne, zonder de democratie te schaden.
