OpenAI en Meta genoemd in discussie: AI sluipt verkiezingscampagnes binnen

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • OpenAI en Meta genoemd in discussie: AI sluipt verkiezingscampagnes binnen

Amsterdam, 1 april 2026 14:59 

Politieke partijen en hun bureaus zetten kunstmatige intelligentie in tijdens campagnes in Europa en Nederland. Met tools als ChatGPT, Midjourney en ElevenLabs maken zij in korte tijd teksten, beelden en stemmen. Kiezers zien zelden dat die content door algoritmen is gemaakt. Dat wringt met platformregels en met de Europese AI-verordening, en raakt ook de AVG en de “Europese AI-verordening gevolgen overheid” in publieke kanalen.

AI-gebruik blijft vaak stil

Campagneteams gebruiken generatieve modellen om snel slogans, scripts en visuals te maken. Populaire namen zijn ChatGPT en Gemini voor tekst, Midjourney, Stable Diffusion en Adobe Firefly voor beelden en ElevenLabs voor stemklonen. Zo ontstaat veel, en vaak gepersonaliseerde, campagnecontent in korte tijd. De inzet is efficiënt en goedkoop, maar weinig zichtbaar voor het publiek.

De verleiding is groot om AI onzichtbaar te houden. Partijen besparen kosten en testen varianten voor verschillende doelgroepen. Dat heet microtargeting: berichten aanpassen aan interesses of gedrag van kleine groepen. De herkomst van de content blijft dan vaak onduidelijk.

Transparantie ontbreekt nog vaak in de praktijk. Een korte disclaimer of zichtbaar label staat zelden bij een post of video. Het gevolg is dat kiezers niet weten of een stem, beeld of tekst door een mens of een model is gemaakt. Dat kan het vertrouwen in de boodschap aantasten.

Sommige tools maken het extra lastig. Stemklonen en beeldbewerking zijn met ElevenLabs en Midjourney nauwelijks van echt te onderscheiden. Kleinere partijen kunnen zo professionele producties evenaren. Dat vergroot bereik, maar ook het risico op misleiding.

Labeling schiet nog tekort

Platforms voeren eigen regels, maar die verschillen. Google verplicht adverteerders om synthetisch aangepaste verkiezingsadvertenties te labelen op YouTube en in Google Ads. Meta plaatst in sommige gevallen “Made with AI”-labels en stelt extra eisen voor politieke advertenties. Toch glipt organische, niet-betaalde content vaak door de mazen.

TikTok staat politieke advertenties niet toe, maar politieke content verschijnt er wel. X (voorheen Twitter) wisselt vaker van beleid en handhaving. Onder de Europese Digital Services Act (DSA) moeten zeer grote platforms risico’s rond verkiezingen beperken. In de praktijk blijft detectie en labeling van AI-content wisselvallig.

Voor journalistiek en factcheckers wordt het werk zwaarder. Een AI-beeld zonder context verspreidt zich sneller dan een correctie. Zonder vaste labels is herkomstonderzoek tijdrovend. Ondertussen schuift de verantwoordelijkheid tussen makers, bureaus en platforms heen en weer.

Een deepfake is beeld of audio die met AI is gemanipuleerd om echt te lijken, bijvoorbeeld een nagemaakte stem of een verzonnen video van een politicus.

AI-verordening raakt campagnes

De Europese AI-verordening (AI Act) bevat een transparantieplicht voor “deepfakes”. Makers moeten duidelijk maken dat content door AI is gegenereerd of gemanipuleerd. Op het moment van schrijven treden delen van de wet gefaseerd in werking vanaf 2025 en 2026. Campagnes die nu systemen testen, moeten dus vooruit plannen.

Daarnaast komt de EU-verordening over transparantie en targeting van politieke advertenties eraan. Die verplicht tot duidelijke informatie over wie betaalt, waarom iemand de advertentie ziet en welke data zijn gebruikt. Ook beperkt zij het gebruik van gevoelige gegevens, zoals politieke opvattingen, voor targeting. De meeste bepalingen gelden vanaf 2025.

De AVG geldt al. Politieke voorkeur is een bijzondere categorie persoonsgegevens en is in principe verboden om te verwerken zonder uitdrukkelijke toestemming. Dat raakt lookalike-audiences en profielen die politieke signalen afleiden. Dataminimalisatie en beveiliging zijn verplicht, ook voor kleine partijen en hun bureaus.

Dit alles heeft ook Europese AI-verordening gevolgen overheid en platforms die met campagnecontent te maken krijgen. Gemeenten en publieke instellingen moeten neutraal communiceren en hergebruik van AI-content zorgvuldig toetsen. Medewerkers die kanalen beheren, doen er goed aan om generatieve content te labelen. Zo verkleinen zij juridische en reputatierisico’s.

Platforms sturen strategie bij

Google, Meta en YouTube bouwen bibliotheken en transparantie-rapporten voor politieke advertenties. Adverteerders moeten soms extra verificatie doorlopen en disclaimers plaatsen. Wie dat niet doet, loopt kans dat advertenties worden afgekeurd. Daardoor verplaatsen campagnes zich deels naar organische posts en creators.

Contentmakers en bureaus werken met watermerken en metadata, zoals C2PA, maar die labels verdwijnen soms bij upload. Sommige modellen, zoals Adobe Firefly, bieden standaard rechtenbeheer en veiliger trainingsdata. Dat verkleint auteursrechtelijke risico’s bij posters en flyers. Toch blijft menselijke eindredactie nodig.

Op het moment van schrijven testen platforms automatische “AI”-labels breder uit. De nauwkeurigheid is niet gegarandeerd, vooral bij subtiele beeldbewerking en audio. Onterechte labels kunnen legitieme content treffen. Ondertussen blijven echte deepfakes soms onopgemerkt.

Campagnes zoeken dus naar redundantie. Een zichtbaar label in beeld of beschrijving, plus ingesloten metadata, vergroot de kans op herkenning. Duidelijke credits voor stem- en beeldmodellen helpen daar ook bij. Zo begrijpt het publiek wat het ziet en hoort.

Nederlandse praktijk en risico’s

In Nederland experimenteren partijen en lokale lijsten met AI voor socialemedia-content. Kleine teams gebruiken ChatGPT voor conceptteksten en Midjourney of Firefly voor campagnebeelden. Dat bespaart tijd in drukke periodes. Maar zonder beleid ontstaan snel fouten en reputatieschade.

De Autoriteit Persoonsgegevens benadrukt dat profilering met politieke opvattingen zeer beperkt is. Toestemming moet vrij, specifiek en aantoonbaar zijn. Ook het combineren van datasets vraagt een grondslag en een DPIA, een risico-analyse. Campagnedata horen versleuteld en met strikte toegangsrechten te worden bewaard.

Publieke omroepen en gemeenten die verkiezingsinformatie delen, moeten extra zorgvuldig zijn. Een onbedoelde deepfake in een informatieve post kan het vertrouwen schaden. Heldere disclaimers en bronvermelding zijn daarom belangrijk. Snelle correcties en archivering maken herstel makkelijker.

Bureaus doen er goed aan om interne registers bij te houden. Noteer welke modellen zijn gebruikt, met welke instellingen en met welke bronnen. Leg beperkingen vast, zoals geen stemklonen van echte personen zonder toestemming. Zo sluit de praktijk beter aan op komende wetgeving.

Wat werkt en wat mist

AI versnelt productie, maar maakt ook fouten. Taalmodellen kunnen hallucineren, dus feitencontrole blijft nodig. Beeldmodellen kunnen stereotypen versterken, wat schadelijk is in politieke context. Een menselijke redacteur blijft onmisbaar voor nuance en ethiek.

Veiligere keuzes beperken risico’s. Adobe Firefly gebruikt gelicentieerde data en biedt rechtenbeheer, wat het auteursrechtelijk risico verkleint. Google Gemini en ChatGPT hebben moderatie, maar die is niet waterdicht. Test dus outputs en documenteer keuzes.

Transparantie vergroot vertrouwen. Zet een zichtbaar label bij elke AI-tekst, -stem of -visual en leg kort uit wat is gedaan. Voeg C2PA-metadata toe en bewaar ruwe bestanden. Zo kunnen redacties en toezichthouders de herkomst controleren.

Tot slot loont heldere samenwerking met platforms. Gebruik advertentiebibliotheken, controleer labeling-eisen en plan tijd voor goedkeuring. Maak een escalatiepad voor klachten en correcties. Dat maakt campagnes wendbaar, ook als regels strenger worden.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

Mensen met ADHD, autisme en dyslexie halen zichtbaar voordeel uit generatieve AI zoals ChatGPT van OpenAI, Microsoft Copilot en Google

Bitcoin is onder de grens van 94.000 dollar gezakt. De beweging zette druk op de hele cryptomarkt in Europa en

Nederlandse marketing- en contentteams zetten op het moment van schrijven AI-agents in om contentproductie op te schalen. In bureaus, media

>