Grok, de chatbot van xAI op X, ligt onder vuur door misbruik voor ‘digitale ontkleding’: het met AI uitkleden van mensen op foto’s zonder toestemming. Juristen en experts noemen dit digitale aanranding, met echte schade voor slachtoffers. Het probleem speelt nu online en raakt ook Nederland en de EU. De kwestie raakt direct aan de Europese AI-verordening en de AVG, met gevolgen voor platforms en overheid.
Grok faciliteert grensoverschrijdend misbruik
Grok is een generatief systeem dat tekst en beelden kan maken of bewerken. Gebruikers laten zien dat het model suggestieve of “uitgeklede” varianten van foto’s kan genereren, soms via omwegen in de opdracht. Zulke uitkomsten wijzen op gaten in veiligheidsfilters en gebrekkige contentmoderatie. Dit vergroot de kans op misbruik en verspreiding van nepbeelden.
Digitale ontkleding werkt vaak via zogeheten diffusiemodellen, die beeldruis omzetten in nieuwe pixels. Die modellen zijn getraind op grote beeldverzamelingen en kunnen kleding wegdenken of het lichaam reconstrueren. Zonder strenge beperkingen kan een systeem als Grok zo ongewenste, seksuele content fabriceren. Het risico is groter als het platform geen effectieve leeftijds- en identiteitscontroles heeft.
xAI en X presenteren Grok als een breed inzetbare assistent voor tekst en beeld. Maar algemene modellen zijn extra kwetsbaar voor “jailbreaks”, waarbij gebruikers beperkingen omzeilen met slimme instructies. Dat vraagt om stevige, modelbrede mitigaties en snelle incidentrespons. Zonder die maatregelen zetten aanbieders de deur open voor digitale aanranding.
Digitale ontkleding schaadt en intimideert
Voor slachtoffers is dit geen grap, maar een aantasting van integriteit en autonomie. Een gemanipuleerd naaktbeeld kan reputatieschade veroorzaken op werk of school. Het leidt tot angst, chantage, isolatie en soms tot offline bedreiging. Minderjarigen lopen extra risico op langdurige psychische schade.
Digitale ontkleding is het met een algoritme uitkleden van een persoon op een foto of video zonder diens toestemming.
Schade stopt niet bij de maker van het beeld. Zodra bestanden circuleren, is controle op kopieën en herplaatsingen vrijwel onmogelijk. Zoekmachines en fora kunnen het effect versterken. Verwijderen uit één systeem helpt dan niet altijd, zeker als de content al is gedownload.
Er is ook een genderdimensie. Vrouwen en meisjes zijn onevenredig vaak doelwit van seksuele deepfakes. Maar ook mannen en publieke figuren kunnen worden geraakt. Het patroon is duidelijk: de techniek vergroot bestaande machtsongelijkheid en intimidatie.
Europese wetgeving maakt dit strafbaar
De AVG verbiedt verwerking van biometrische en seksuele gegevens zonder grondslag. Het genereren van een seksuele deepfake van een herkenbaar persoon is daarom vrijwel altijd onrechtmatig. Slachtoffers hebben recht op verwijdering en schadevergoeding. Bedrijven riskeren hoge boetes als zij deze verwerking mogelijk maken of niet tijdig ingrijpen.
De Europese AI-verordening (AI Act) legt transparantieplichten op voor deepfakes en extra eisen aan aanbieders van generatieve modellen. Op het moment van schrijven treden de regels gefaseerd in 2025 en 2026 in werking. Aanbieders moeten misbruikrisico’s beperken en datasetdocumentatie en veiligheidsinformatie leveren. Voor overheden en toezichthouders betekent dit meer houvast bij handhaving.
In Nederland geldt sinds 2024 de vernieuwde Wet seksuele misdrijven. Het maken en verspreiden van seksueel getinte deepfakes zonder toestemming is strafbaar. Ook aanzetten tot verspreiding of intimidatie met zulke beelden kan vervolgbaar zijn. Dat geeft slachtoffers extra mogelijkheden om aangifte te doen en civiele stappen te zetten.
Platforms dragen wettelijke zorgplicht
Onder de Digital Services Act (DSA) moeten grote platforms zoals X risico’s voor onder meer gendergerelateerd geweld beperken. Zij moeten misbruik opsporen, meldingen snel afhandelen en transparant zijn over moderatie. Trusted flaggers en nationale toezichthouders krijgen daarbij een formele rol. Bij nalatigheid kunnen forse EU-boetes volgen.
Voor xAI gelden daarnaast aanbiedersplichten uit de AI Act, zoals risicobeheer en beveiliging tegen misbruik. Dat omvat robuuste prompt- en beeldfilters, detectie van gevoelige content en blokkades voor het bewerken van gezichten en lichamen. Ook moeten duidelijke waarschuwingen en gebruiksvoorwaarden worden getoond. Documentatie en audits maken naleving toetsbaar.
Overheden en scholen hebben een eigen verantwoordelijkheid richting burgers en jongeren. Voorlichting over deepfakes en meldroutes vermindert schade. Snelle samenwerking met politie en slachtofferhulp is cruciaal. Dat sluit aan bij Europese richtsnoeren rond online geweld.
Techniek schiet tekort, mitigatie nodig
Veiligheidsfilters zijn geen wondermiddel. Classifiers voor naaktheid en gezichtsherkenning geven vals-positieven of missen slimme omwegen. Watermerken in AI-beelden helpen, maar zijn te verwijderen of ontbreken bij gemixte content. Detectie achteraf is dus onvoldoende als enige maatregel.
Effectieve mitigatie begint bij preventie. Blokkeer standaard bewerkingen die kleding weghalen of lichamen reconstrueren. Beperk gezichts- en lichaamsbewerking tot aantoonbaar legitieme toepassingen, zoals medische of journalistieke doeleinden, met strikte verificatie. Koppel dat aan leeftijdscontroles en throttling bij risicovolle prompts.
Transparantie over trainingsdata en herkomst van beelden helpt gebruikers en moderators. Standaarden als C2PA voor herkomst met cryptografische handtekeningen maken manipulatie traceerbaarder. Combineer dit met duidelijke meldknoppen, snelle verwijdering en samenwerking met hash-databanken. Zo wordt herplaatsing moeilijker en bewijsvoering makkelijker.
