Geert Wilders (PVV) en Frans Timmermans (GroenLinks-PvdA) botsten deze week in het Haagse debat over AI-plaatjes in de politiek. Centraal stond de vraag of zulke beelden kiezers misleiden en wie daarvoor verantwoordelijk is. De discussie raakt direct aan de Europese AI-verordening en online toezicht onder de Digital Services Act. Aanleiding is de snelle opkomst van beeldgeneratoren die op basis van tekst realistische fotoās maken.
Botsing over misleiding
De twee partijleiders verschilden over de grens tussen satire en manipulatie. AI-gegenereerde plaatjes kunnen grappig bedoeld zijn, maar ook doelbewust verwarren. In campagnetijd kan dat het publieke debat vertroebelen. De kern: hoe voorkom je misleiding zonder politieke uitingen te censureren.
AI-beeldgeneratoren zetten tekst in seconden om naar een nieuw beeld. Voorbeelden zijn Midjourney, DALLĀ·E en Stable Diffusion. Zulke systemen zijn getraind op enorme collecties fotoās en leren zo stijlen en patronen na te bootsen. Daardoor wordt nep moeilijk van echt te onderscheiden.
Verantwoordelijkheid ligt niet bij ƩƩn partij. Makers, verspreiders en platforms spelen ieder een rol. De Digital Services Act verplicht grote platforms om risicoās rond verkiezingen te beperken. Dat geldt op het moment van schrijven voor bedrijven als Meta, X en TikTok.
Deepfakes raken verkiezingen
Deepfakes zijn snel en goedkoop te maken, en verspreiden razendsnel. Het risico neemt toe in de aanloop naar verkiezingen. Misleidende beelden kunnen het vertrouwen in media en politiek aantasten. Ook factcheckers krijgen het hierdoor zwaarder.
In andere landen gingen recent vervalste campagnebeelden viraal. De impact bleek groot, zelfs als ze later werden weerlegd. Scepsis blijft vaak hangen. Daardoor verandert het gesprek meer over de vorm dan over de inhoud van beleid.
Labeling helpt, maar is niet zaligmakend. Watermerken en metadata kunnen worden verwijderd of breken bij herpublicatie. Detectietools geven bovendien geen 100% zekerheid. Mediawijsheid en transparantie blijven daarom noodzakelijk.
Een deepfake is een beeld, audio of video die met algoritmen is nagemaakt, vaak zo realistisch dat het echt lijkt.
AI-verordening verplicht transparantie
De Europese AI-verordening verplicht tot duidelijke labels voor synthetische media. Wie een deepfake publiceert, moet aangeven dat het niet echt is. Ook moeten makers van generatieve modellen documentatie en technische maatregelen bieden, zoals watermerken. Een deel van die regels gaat gefaseerd in vanaf 2025 en 2026, op het moment van schrijven.
Voor politieke partijen en overheden betekent dit: helder aangeven wanneer een beeld of video door een algoritme is gemaakt. Dat vergt interne procedures, archivering en controle voor publicatie. Het voorkomt dat kiezers misleid worden, en beperkt juridische risicoās. De regels sluiten aan bij bestaande verplichtingen rond eerlijkheid en transparantie.
De AVG blijft daarnaast gelden. Gebruik je iemands gezicht of persoonsgegevens, dan is een rechtmatige grondslag nodig en dataminimalisatie verplicht. Bij misleidende of schadelijke beelden kunnen ook portretrecht en smaad spelen. Juridisch is de route dus breder dan alleen de AI-wet.
Platforms moeten ingrijpen
Onder de Digital Services Act moeten zeer grote platforms risicoās rondom verkiezingen beperken. Dat betekent onder meer betere meldknoppen, snellere moderatie en samenwerking met factcheckers. Bedrijven als Google, Meta en TikTok testen labeltjes voor AI-content en beperken aanbevelingen. De Europese Commissie kan handhaven en boetes opleggen.
Technische standaarden zoals C2PA ācontent credentialsā voegen herkomstgegevens toe aan beelden. Dat is een soort digitaal etiket dat laat zien wie iets maakte en met welk systeem. Adobe, Microsoft en nieuwsorganisaties werken hieraan. Brede invoering in Nederland kan de herleidbaarheid verbeteren.
Toch blijven er gaten. Bewerking of screenshots kunnen herkomstlabels verwijderen. Detectie-algoritmen geven soms valse waarschuwingen of missen slimme vervalsingen. Menselijke redactie en duidelijke huisregels blijven daarom nodig.
Nationale regels in beweging
De nieuwe EU-regels voor transparantie bij politieke advertenties treden stapsgewijs in werking. Die verplichten duidelijkheid over wie betaalt, welke doelgroep is gekozen en welke technieken worden gebruikt. Dat raakt ook AI-gestuurde campagnebeelden. Nederlandse partijen en mediabureaus moeten hun processen daarop aanpassen.
Publieke instellingen en gemeenten krijgen praktische gevolgen. Denk aan inkoopvoorwaarden voor AI-tools, verplichte labelrichtlijnen en training van communicatieafdelingen. Ook scholen en bibliotheken verhogen inzet op mediawijsheid. Zo wordt schade beperkt vóórdat het escaleert.
Toezichthouders spelen een rol bij de uitwerking. Het Commissariaat voor de Media en de Autoriteit Persoonsgegevens kijken mee vanuit hun domein. Heldere richtlijnen voorkomen willekeur in moderatie en toezicht. Dat is belangrijk voor vertrouwen in de handhaving.
Wat nu nodig is
Politieke partijen doen er goed aan een vaste AI-code te publiceren. Zet daarin wanneer AI is toegestaan, hoe labeling gebeurt en wie tekent voor eindcontrole. Leg ook vast hoe klachten en correcties werken. Dat maakt verantwoordelijkheid zichtbaar en uitvoerbaar.
Media en platforms moeten consistent labelen en uitleg geven. Combineer technische middelen zoals C2PA met redactionele checks. Publiceer correcties even zichtbaar als het oorspronkelijke bericht. Zo blijft vertrouwen behouden.
Burgers kunnen zelf kritisch kijken: check de bron, let op onlogische schaduwen of handen, en zoek omgekeerd naar het beeld. Twijfel je, deel dan niet door. De aanvaring tussen Wilders en Timmermans laat zien dat Nederland nu moet bepalen hoe de Europese AI-verordening in de politieke praktijk landt.
