Na Wilders’ excuses eist Timmermans verantwoordelijkheid voor AI-beelden

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Na Wilders’ excuses eist Timmermans verantwoordelijkheid voor AI-beelden

Amsterdam, 28 oktober 2025 15:44 

Geert Wilders toonde vandaag in de Tweede Kamer AI-beelden tijdens een verkiezingsdebat. Hij bood excuses aan, maar Frans Timmermans vindt dat niet genoeg. De discussie draait om misleiding door synthetische beelden en de normen in het parlement. Dit raakt direct aan de Europese AI-verordening en de gevolgen voor overheid en politiek in Nederland.

AI-beelden in Kamerdebat

Tijdens het debat op verkiezingsdag gebruikte Wilders beelden die met kunstmatige intelligentie waren gemaakt. Zulke AI-beelden, ook wel deepfakes, lijken echt maar zijn nep. Timmermans wees het gebruik af en stelde dat verontschuldigingen de schade niet wegnemen. Op het moment van schrijven zijn Wilders en Timmermans partijleiders van respectievelijk PVV en GroenLinks-PvdA.

AI-beelden worden gemaakt door generatieve modellen die leren van enorme hoeveelheden data. Ze kunnen in seconden realistische scènes produceren die nooit hebben plaatsgevonden. In een politieke context kan dat de kijker op het verkeerde been zetten. Zeker als het beeld in de Kamer of live op televisie verschijnt.

De inzet van zulke beelden raakt aan de integriteit van het debat. De Tweede Kamer is het hoogste democratische forum in Nederland. Beelden die niet verifieerbaar zijn, kunnen het vertrouwen schaden. Dat effect is extra groot op de dag dat kiezers hun keuze maken.

“Hiervoor is geen plaats in ons parlement,” zei Timmermans over het tonen van AI-beelden in de Kamer.

Transparantieplicht voor deepfakes

De Europese AI-verordening (AI Act) introduceert een transparantieplicht voor synthetische media. Wie een gemanipuleerd of door AI gemaakt beeld verspreidt, moet dat duidelijk kenbaar maken. Deze regel wordt in de loop van 2025 van toepassing. Politieke partijen en overheidsorganen moeten hun communicatie hierop aanpassen.

Transparantie betekent dat er zichtbaar bij het beeld staat dat het door een algoritme is gemaakt of aangepast. Dat kan met een label, een watermerk of een begeleidende tekst. Uitzonderingen, zoals satire, vragen nog steeds om zorgvuldige context. In het parlement geldt daarbovenop een plicht tot juiste en controleerbare informatie.

De Kamer heeft procedurele middelen om misleiding te voorkomen. De voorzitter kan om toelichting of rectificatie vragen. Fracties kunnen materiaal vooraf laten checken en voorzien van een herkomstlabel. Zo blijft het stenogram en het publieke debat controleerbaar.

Risico op misleiding kiezers

Beelden overtuigen sneller dan woorden. Een nepvideo of compositie kan suggereren dat iets echt is gebeurd. Op verkiezingsdag vergroot dat het risico op beïnvloeding van kiezers. Factchecken en bronvermelding zijn daarom cruciaal.

Digitale platforms vallen onder de Digital Services Act (DSA). Grote platforms moeten maatregelen nemen tegen misleidende content rond verkiezingen. Denk aan risicobeoordelingen, snellere melding en beperkte aanbeveling van problematische posts. Dat helpt, maar neemt het risico in de Kamer zelf niet weg.

Voor politieke advertenties komt daarnaast een aparte EU-regel met strengere etiketten en beperkingen op microtargeting. Gevoelige persoonsgegevens, zoals etniciteit of religie, mogen niet worden gebruikt. Deze plichten lopen in 2025 en 2026 op. Campagnes moeten hun werkwijze daarop inrichten.

AVG en gebruik van portretten

Als AI-beelden herkenbare personen tonen, geldt de AVG. Dan is een rechtmatige grondslag nodig en geldt dataminimalisatie. Ook kan sprake zijn van biometrische kenmerken, die extra gevoelig zijn. Onjuiste of misleidende koppelingen kunnen bovendien reputatieschade veroorzaken.

Naast privacy speelt het portretrecht en het civiele recht. Iemands uiterlijk inzetten in een nepcontext kan onrechtmatig zijn. Zeker als het gaat om publieke personen of ambtenaren. Politieke organisaties lopen dan juridische en reputatierisico’s.

Voor de overheid gelden hoge eisen aan zorgvuldige communicatie. Duidelijke labeling, bewaartermijnen en snelle correcties horen daarbij. Overheidskanalen moeten transparant zijn over de herkomst van beeldmateriaal. Dat past bij de Europese AI-verordening en bij Nederlandse openbaarheidseisen.

Nodige waarborgen en hulpmiddelen

Er bestaan technische hulpmiddelen om herkomst te tonen, zoals C2PA-provenance en watermerken. Grote AI-aanbieders, zoals Google, OpenAI en Meta, ondersteunen zulke technieken in wisselende mate. Detectie van deepfakes is echter niet waterdicht. Beleid en proces blijven dus minstens zo belangrijk.

Parlement, omroepen en redacties kunnen vaste verificatiestappen inbouwen. Vraag naar het originele bestand en de achterliggende bron. Voeg standaard een zichtbaar label toe bij synthetisch beeld. Leg ook vast wie controleerde en wanneer.

In Den Haag ontbreekt nog een expliciete Kamerlijn over AI-beelden in het debat. Een heldere instructie kan misverstanden voorkomen. Bijvoorbeeld: altijd labelen, geen synthetische reconstructies zonder context, en directe rectificatie bij fouten. Dat schept gelijke spelregels voor alle fracties.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>