Gebruikers van X maken met Grok, de AI-assistent van xAI, verleidelijke nepfoto’s van echte mensen. In Nederland is het maken en vooral verspreiden van zulke seksuele deepfakes strafbaar, zeker bij minderjarigen. Politie en Openbaar Ministerie kunnen ingrijpen, terwijl platforms sneller moeten verwijderen. Dit speelt nu, terwijl de Europese AI-verordening (AI Act) en de Digital Services Act extra plichten opleggen aan aanbieders en platforms.
Grok maakt deepfakes eenvoudig
Grok is een AI-systeem van xAI, beschikbaar binnen X voor gebruikers met toegang. De tool kan teksten en beelden genereren op basis van korte opdrachten, zogeheten prompts. Dat verlaagt de drempel om snel realistische, maar neppe foto’s te maken. Daarbij lijken de resultaten vaak sterk op echte portretten.
De beeldgenerator gebruikt een diffusie-algoritme, een model dat stap voor stap ruis omzet in een foto-achtig beeld. Voor niet-techneuten: je typt wat je wilt zien, en het systeem “tekent” dat in enkele seconden. Kleding, houding en omgeving zijn te sturen met woorden. Zo ontstaat in korte tijd een overtuigend plaatje.
Grok bevat veiligheidsfilters tegen naakt en expliciete verzoeken. Toch kunnen gebruikers die regels soms omzeilen met omweg-prompts of door bestaande foto’s subtiel te bewerken. Daardoor verschijnen suggestieve afbeeldingen die niet per se naakt zijn, maar wel seksueel getint en schadelijk kunnen zijn.
Een deepfake is een gemanipuleerd beeld of geluid dat met AI is gemaakt en echt lijkt.
Strafbaar onder nieuwe wet
In Nederland geldt sinds 2024 de vernieuwde Wet seksuele misdrijven. Daarin is seksueel beeldmisbruik strafbaar, ook als het gaat om deepfakes van niet-bestaande handelingen. Het gaat om maken, bezitten en verspreiden zonder toestemming, met extra zware straffen als minderjarigen in beeld zijn. Wie doelbewust schaadt, riskeert een strafblad.
Verspreiding is juridisch het duidelijkst strafbaar, bijvoorbeeld via X of chatgroepen. Het maken kan ook strafbaar zijn als het onderdeel is van die verspreiding, of als het het slachtoffer ernstig aantast. Bovendien kan smaad of laster aan de orde zijn wanneer iemands eer en goede naam worden aangetast. Dat staat los van eventuele school- of werkconsequenties.
Slachtoffers kunnen aangifte doen bij de politie en verwijdering eisen bij het platform. Civielrechtelijk zijn ook portretrecht en onrechtmatige daad relevant. Scholen en werkgevers hebben daarnaast een zorgplicht om een veilige omgeving te bieden. Dat geeft ruimte voor snelle interne maatregelen.
AVG raakt gebruik van foto’s
Het gebruiken van iemands foto of gezicht voor een deepfake is verwerking van persoonsgegevens. Voor zo’n verwerking is onder de AVG een geldige grondslag nodig, die er bij misbruik niet is. De “huishoudelijke uitzondering” geldt vooral voor strikt privégebruik. Delen op sociale media valt daar op het moment van schrijven meestal niet onder.
Gezichtskenmerken kunnen bovendien biometrische gegevens zijn, die extra beschermd zijn. Dat betekent zwaardere eisen en een verbod zonder duidelijke uitzondering. Ook het bewaren en doorsturen van de beelden brengt risico’s mee. Dataminimalisatie en beveiliging zijn zelden op orde bij dit soort misbruik.
Niet alleen makers, ook platforms en AI-aanbieders hebben verplichtingen. Zij zijn verwerkingsverantwoordelijke of verwerker en moeten onder meer verwijderen, informeren en beveiligen. De Autoriteit Persoonsgegevens kan optreden met onderzoeken en boetes. Voor slachtoffers is dat een extra route naast het strafrecht.
X valt onder strenge DSA
X is in de EU aangewezen als Very Large Online Platform onder de Digital Services Act. Daardoor moet het bedrijf systemische risico’s beperken, waaronder de verspreiding van deepfakes en seksueel misbruik. Concreet betekent dit betere detectie, snellere afhandeling van meldingen en toegang voor onderzoekers. Ook moeten transparantieverslagen openbaar zijn.
Voor gebruikers moet er een laagdrempelige meldknop zijn, met “notice-and-action”. Bij duidelijke onrechtmatigheid hoort snelle verwijdering. Herhaalde overtreders kunnen worden beperkt of geweerd. Dat alles staat los van eventuele strafrechtelijke aangifte tegen individuele daders.
De Europese Commissie handhaaft de DSA bij VLOP’s en kan forse sancties opleggen. Boetes kunnen oplopen tot 6 procent van de wereldwijde omzet. Nationale toezichthouders ondersteunen toezicht en klachtenafhandeling. Zo wordt de aanpak van deepfake-misbruik een gezamenlijke taak.
AI-verordening eist labeling
De Europese AI-verordening legt transparantieplichten op aan generatieve AI. Aanbieders moeten synthetische media markeren of hulpmiddelen bieden om deze te herkennen. Denk aan watermerken of metadata die laten zien dat een beeld door een model is gemaakt. Dat helpt gebruikers, scholen en media om herkomst te checken.
Watermerken zijn echter niet waterdicht: ze kunnen worden verwijderd of vervormd. Daarom vraagt de wet ook om risicobeperking, zoals strengere filters en misbruikmonitoring. Voor systemen die op grote schaal worden gebruikt, wegen die plichten zwaarder. Dit is relevant voor Grok binnen X, met veel bereik.
De AI Act treedt gefaseerd in werking in 2025 en 2026, op het moment van schrijven. Transparantie-eisen voor generatieve systemen komen relatief vroeg. Voor overheden en platforms spelen de Europese AI-verordening gevolgen overheid en moderatiepraktijk samen op. Verwachting: strengere labeling en sneller ingrijpen bij misbruik.
Wat gebruikers nú kunnen doen
Zie je een deepfake van jezelf of een leerling, maak schermafbeeldingen als bewijs. Meld de post via de ingebouwde functies van X om snelle verwijdering te vragen. Overweeg aangifte en vraag hulp bij school of werkgever. Het is belangrijk om niet zelf te delen, ook niet om te waarschuwen.
Scholen kunnen afspraken vastleggen in een gedragsprotocol. Leg uit wat deepfakes zijn, hoe je ze herkent, en wat de gevolgen in straf- en privacyrecht zijn. Benoem dat ook “grapjes” strafbaar kunnen zijn. Zo wordt digitaal respect onderdeel van mediawijsheid.
Voor makers is de boodschap simpel: maak of deel geen seksuele deepfakes. Het is juridisch riskant en schaadt anderen. Gebruik AI-systemen zoals Grok verantwoord, binnen wet en platformregels. Wie twijfelt, publiceert niet.
