Kiezers in Nederland en Europa krijgen deze maanden te maken met AI in de politiek. Beelden, stemmen en teksten kunnen met algoritmen worden nagemaakt, soms niet van echt te onderscheiden. Platforms en overheden voeren daarom nieuwe regels en labels in. Doel is kiezers te beschermen, ook vanwege de Europese AI-verordening en de gevolgen voor overheid en media.
AI vergroot kiezersverwarring
Met generatieve AI kunnen fotoās, videoās en stemmen van politici worden vervalst. Een deepfake is een nagemaakt beeld of geluid dat door een model is gegenereerd. Zo kan een nepfilmpje of stemopname kiezers op het verkeerde been zetten. De vraag āop wie stem ik echt?ā wordt daarmee urgenter.
Beeldmodellen zoals Midjourney en Stable Diffusion maken in seconden overtuigende campagnebeelden. Spraaksynthese, bijvoorbeeld met ElevenLabs of openāsource tools, kan iemands stem klonen. Tekstsystemen zoals GPT-4 of Llama 3 schrijven overtuigende mails of flyers. Dit vergroot de kans op misleiding, zeker vlak voor de stemming.
Lokale en regionale verkiezingen zijn extra kwetsbaar. Kleine partijen hebben minder middelen om desinformatie te weerleggen. Ook regionale media hebben beperkte tijd om claims te checken. Daardoor kan een vals bericht langer blijven hangen.
āEen deepfake is een gemanipuleerd beeld of geluid dat door kunstmatige intelligentie is gemaakt en bedoeld is om echt te lijken.ā
Platforms voeren etiketten in
Meta labelt op het moment van schrijven AI-bewerkte beelden op Facebook en Instagram. Het bedrijf gebruikt onder meer C2PAāherkomstdata, een soort digitale stempel in het bestand. Google vereist sinds 2023 dat politieke adverteerders aangeven als content āsynthetischā is. YouTube en TikTok voegen vergelijkbare meldingen toe bij duidelijk bewerkt materiaal.
Google past ook SynthID toe, een watermerk voor door AI gemaakte media. Dat maakt herkenning makkelijker, maar werkt niet altijd na knippen of hercompressie. OpenAI staat geen politieke beĆÆnvloeding met GPTā4 of DALLĀ·E toe en test herkomstlabels. Toch kunnen modellen buiten deze grote platforms de regels omzeilen.
Labels verhogen transparantie, maar zijn niet sluitend. Herkomstdata gaan verloren bij screenshots en doorsturen via chatapps. Niet alle makers voegen vrijwillig watermerken toe. En handhaving verschilt per platform en taal.
Europese AI-regels in verkiezingen
De Europese AIāverordening (AI Act) legt plichten op aan algemene AIāsystemen en generatieve modellen. Ze moeten duidelijk maken dat inhoud door AI is gemaakt en informatie geven over trainingsdata op hoofdlijnen. Voor manipulatieve systemen die mensen ernstig kunnen schaden, geldt een verbod. Dat raakt ook het misleidend inzetten van datamodellen rond verkiezingen.
De Digital Services Act verplicht grote platforms om risicoās voor verkiezingsintegriteit te beperken. Denk aan snellere moderatie, transparantie over aanbevelingsalgoritmen en samenwerking met onderzoekers. Bij overtreding kunnen boetes volgen. Dit versterkt de druk om deepfakes en desinformatie aan te pakken.
De nieuwe EUāverordening voor politieke advertenties introduceert extra transparantie en beperkingen op targeting. Microtargeting op basis van gevoelige gegevens is onder de AVG al sterk beperkt. De regels gaan gefaseerd in vanaf 2025, met gevolgen voor partijen, bureaus en platforms. Overheden moeten processen en archieven van politieke advertenties op orde brengen.
Nederlandse diensten waarschuwen
De Kiesraad wijst kiezers op officiĆ«le kanalen en het controleren van afzenders. Gemeenten richten informatiepaginaās en meldpunten in voor nepnieuws rond het stemproces. Het Nationaal Cyber Security Centrum en de NCTV delen dreigingsbeelden over digitale beĆÆnvloeding. Zo wordt sneller opgeschaald bij zichtbare misleiding.
De Autoriteit Persoonsgegevens waarschuwt voor onrechtmatige profiling van kiezers. Partijen en campagnes moeten dataminimalisatie toepassen en gevoelige gegevens vermijden. Ook versleuteling en veilige opslag zijn nodig bij het verwerken van kiezersdata. Overtredingen kunnen leiden tot hoge boetes onder de AVG.
Publieke omroepen en redacties experimenteren met herkomstlabels in beeld. NPOāredacties testen C2PAāworkflows in productieprocessen. Regionale media werken samen met factcheckers om claims te toetsen. Dit vergroot de weerbaarheid, maar kost tijd en geld.
Techniek nog niet waterdicht
Detectietools missen nog regelmatig vals-positieven of zien bewerkte bestanden over het hoofd. Een simpel filter of bijsnijden kan watermerken breken. Nieuwe modellen leren bovendien snel bij, waardoor herkenningssoftware achterloopt. Daarom is alleen vertrouwen op techniek riskant.
Herkomststandaarden zoals C2PA werken vooral als de hele keten ze gebruikt. Van camera tot bewerkingssoftware en platform moeten dezelfde afspraken gelden. In de praktijk is die adoptie nog ongelijk. Daardoor blijven gaten bestaan waar misleiding doorheen glipt.
Kleine organisaties hebben vaak geen budget voor geavanceerde detectie. Openāsource hulpmiddelen helpen, maar vragen expertise. Samenwerking via sectorbrede afspraken kan de drempel verlagen. Denk aan gedeelde tools en trainingsprogrammaās voor redacties en gemeenten.
Wat kiezers nĆŗ kunnen doen
Controleer de bron: staat de boodschap op een officieel kanaal of domein. Let op onlogische details in beeld of geluid, zoals kromme handen of rare schaduwen. Wees extra kritisch bij content die sterke emoties oproept vlak voor de stemdag. Zoek dezelfde boodschap op meerdere betrouwbare sites.
Raak je toch in twijfel, meld het bij het platform of de gemeente. Officiƫle informatie over stembureaus en kandidaatlijsten staat op overheidswebsites. Voor politieke advertenties hoort duidelijk te staan wie betaalt. Ontbreekt dat, dan is dat een rode vlag.
Transparantie helpt, maar blijft een gedeelde taak. Platforms, overheid, media en burgers hebben elk een rol. Zo blijft de vraag āop wie stem ik?ā helder beantwoord. En kan technologie de democratie ondersteunen in plaats van ondermijnen.
