GroenLinks-PvdA heeft aangifte gedaan tegen enkele PVV’ers om met AI gemaakte beelden van Frans Timmermans. De partij zegt dat de gemanipuleerde beelden misleidend zijn en de reputatie van Timmermans schaden. Het gaat om content die online werd gedeeld in Nederland. De aangifte is deze week bevestigd, met het doel om verspreiding van dergelijke deepfakes aan te pakken.
Partij kiest juridische weg
De aangifte richt zich op het delen van door kunstmatige intelligentie gemaakte beelden van Timmermans. Zulke beelden lijken echt, maar zijn synthetisch samengesteld door een algoritme. GroenLinks-PvdA stelt dat dit kiezers kan misleiden, zeker rond politieke debatten en campagnes. De gebruikte AI-tool is op het moment van schrijven niet bekendgemaakt.
Volgens de partij overschrijdt de verspreiding van deze beelden een grens. Het gaat niet alleen om scherpe satire, maar om manipulatie die de werkelijkheid vervormt. Daardoor kan het publieke debat verarmen. De aangifte moet helderheid geven over wat nog toelaatbaar is.
De PVV heeft op het moment van schrijven nog geen uitgebreide reactie gepubliceerd. Het is niet duidelijk hoeveel accounts of personen de beelden deelden. Ook is niet bekend wanneer de beelden precies zijn gemaakt. De politie beoordeelt nu de melding en vervolgstappen.
Deepfakes vergroten verwarring
AI-beelden worden vaak gemaakt met generatieve modellen, die op basis van voorbeelden nieuwe plaatjes maken. Dat heet een deepfake: een nepbeeld of -video die echt lijkt. Deze techniek kan onschuldige toepassingen hebben, zoals filmproductie. Maar in de politiek vergroot het het risico op misleiding.
Een deepfake is door AI gemanipuleerde media die iemand iets laat doen of zeggen dat niet is gebeurd.
Rond verkiezingen kan de impact groot zijn. Mensen delen beelden snel, vaak zonder broncontrole. Correcties bereiken het publiek later of minder vaak. Zo kan een vals beeld de toon zetten boven de feiten.
Partijen en media experimenteren met detectiesoftware, maar die werkt niet feilloos. Een generatief systeem kan kleine sporen verbergen, waardoor detectie lastiger wordt. Watermerken of “content credentials” helpen, maar ontbreken vaak. Daardoor blijft herkomstcontrole een zwakke schakel.
Strafrecht biedt handvatten
Het verspreiden van misleidende AI-beelden is op zichzelf niet altijd strafbaar. Juristen wijzen op mogelijke grenzen bij smaad en laster, waarbij iemands eer of goede naam wordt aangetast. Ook civielrechtelijk portretrecht kan een rol spelen. De context en bedoeling wegen mee bij de beoordeling.
Als persoonsgegevens worden verwerkt, geldt de AVG. Een herkenbaar gezicht is persoonlijke data, waarvoor een grondslag nodig is. Voor publieke figuren kan het beroep op journalistieke of satirische uitingen gelden, maar misleiding beperkt die ruimte. Dataminimalisatie en duidelijke informatieplichten blijven relevant.
De aangifte van GroenLinks-PvdA vraagt om toetsing aan deze kaders. Het Openbaar Ministerie beoordeelt of vervolging op zijn plaats is. Rechters wegen dan vrijheid van meningsuiting af tegen reputatieschade en het publieke belang. Die afweging is in AI-zaken nog in ontwikkeling.
AI-verordening vraagt transparantie
De Europese AI-verordening (AI Act) verplicht makers en verspreiders van deepfakes om duidelijk te labelen dat de inhoud synthetisch is. Dat is bedoeld om gebruikers te waarschuwen en misleiding te beperken. Ook aanbieders van generatieve modellen moeten technische waarborgen treffen. Denk aan watermerken en herkomstgegevens.
Voor overheden en politieke partijen zijn de gevolgen concreet. Zij moeten, op het moment van schrijven, rekening houden met transparantie-eisen bij inzet van synthetische media. Dat raakt communicatie, campagnevoering en archivering. De Europese AI-verordening heeft daarmee directe gevolgen voor overheid en politiek.
Nederland bereidt toezicht op deze regels voor. De precieze uitwerking en verantwoordelijke toezichthouders worden nog ingevuld. Handhaving zal samenwerken met bestaande kaders, zoals de AVG. Zo ontstaat een mix van Europese en nationale regels voor AI-gebruik.
Platforms en toezicht online
Naast de AI Act geldt de Europese Digital Services Act (DSA) voor grote platforms. Die wet verplicht tot aanpak van systemische risico’s, zoals desinformatie rond verkiezingen. Platforms moeten rapportagekanalen bieden en misleidende deepfakes sneller verwijderen of labelen. Transparantie over moderatie is verplicht.
De Autoriteit Persoonsgegevens let op privacyregels in Nederland. Voor consumentenbescherming en online misleiding spelen ook de ACM en de Europese Commissie een rol. Samen moeten zij zorgen dat regels op papier ook effect hebben in de praktijk. Zonder consistente handhaving blijft het risico op misbruik bestaan.
Partijen die AI inzetten doen er goed aan provenance-technieken te gebruiken. C2PA-labels en cryptografische handtekeningen maken herkomst controleerbaar. Dat helpt gebruikers en journalistieke redacties bij verificatie. Het verlaagt ook het juridische risico bij publicatie.
Gevolgen voor campagnes
De aangifte zet een normerend signaal in de aanloop naar campagnes. Politieke organisaties zullen scherper toetsen wat medewerkers en sympathisanten online delen. Interne richtlijnen over AI-gebruik worden belangrijker. Training in beeldherkenning en bronverificatie hoort daarbij.
Voor kiezers betekent dit dat waakzaamheid nodig blijft. Let op onlogische details, ontbrekende bronnen en opvallende artefacten in beelden. Controleer of media of partijen een label voor synthetische content gebruiken. Deel pas na verificatie.
Media en overheid kunnen helpen met duidelijke labels en snelle correcties. Publieke instellingen moeten hun eigen communicatie langs de AI- en AVG-eisen leggen. Zo wordt de kans kleiner dat nepbeelden het debat bepalen. De zaak rond Timmermans versnelt die omslag in Nederland.
