Musks xAI-bot Grok blokkeert verzoeken om mensen uit te kleden

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Musks xAI-bot Grok blokkeert verzoeken om mensen uit te kleden

Amsterdam, 15 januari 2026 10:04 

Het AI-systeem Grok van xAI, het bedrijf van Elon Musk, blokkeert voortaan verzoeken om mensen digitaal “uit te kleden”. De chatbot op X heeft die functie deze week uitgezet na kritiek op misbruik en privacy. De stap moet seksuele deepfakes tegengaan en is relevant voor gebruikers in de EU en Nederland. Zij vallen onder de Europese AI-verordening en de Digital Services Act, die strengere eisen stellen aan dit soort algoritmen.

Grok blokkeert ontkledenfunctie

Grok, de generatieve AI van xAI (generatieve AI is software die nieuwe tekst of beeld maakt), werkt niet langer mee aan prompts die kleding weghalen of naakte beelden verzinnen. Het systeem weigert zulke verzoeken of geeft een neutrale melding. Ook bewerkingen van bestaande foto’s worden tegengehouden. De blokkade geldt binnen de chatbot en bij beeldfuncties op X.

De mogelijkheid bestond tot voor kort via directe of omschreven opdrachten. Gebruikers konden een portret uploaden en vragen om “zonder kleding”. Dat leidde tot misbruik en tot voorbeelden die online rondgingen. De maatschappelijke kritiek nam snel toe.

xAI heeft extra veiligheidsfilters geactiveerd. Die werken op de invoer én op de uitvoer. Hierdoor worden risicovolle prompts gefilterd en verdachte beelden niet getoond. Doel is schade voor slachtoffers te beperken.

Risico op seksuele deepfakes

Deepfakes zijn gemanipuleerde beelden of audio die echt lijken. Bij “ontkleden” verwijdert een model kleding digitaal. Het resultaat kan eruitzien als een echte naaktfoto. Dit veroorzaakt reputatieschade, chantage en psychische stress.

De drempel om zulke beelden te maken is laag. Iedereen met een gewone foto kan een slachtoffer worden. Vrouwen en meisjes zijn vaker doelwit, ook in scholen of sportclubs. Bekende Nederlanders en politici lopen eveneens risico door publieke foto’s.

Verspreiding gaat snel via sociale media en berichtenapps. Verwijderen kost tijd, terwijl kopieën blijven opduiken. Platformen hebben meldprocedures, maar die zijn niet altijd even snel. Daarom is preventie door blokkades belangrijk.

Deepfake-ontkleding is het digitaal verwijderen van kleding uit een foto of video met behulp van een algoritme, waardoor een nep-naaktbeeld ontstaat dat echt lijkt.

EU-regels leggen druk

De Europese AI-verordening (AI Act) stelt vanaf 2025 en 2026 gefaseerd extra eisen aan generatieve modellen, met gevolgen voor de overheid en aanbieders. Leveranciers van general-purpose systemen moeten risico’s inventariseren en misbruik voorkomen. Voor deepfakes geldt een transparantieplicht, zoals duidelijke labeling. Deze plichten gelden ook voor partijen als xAI die in de EU actief zijn, op het moment van schrijven in aanloop naar volledige inwerking.

Daarnaast verplicht de Digital Services Act grote platforms zoals X tot het beperken van “systemische risico’s”. Daaronder valt online gendergerelateerd geweld en onrechtmatige inhoud. Platformen moeten effectieve meld- en verwijderprocessen hebben. Overtreding kan leiden tot hoge boetes.

In Nederland is het maken of delen van intieme deepfakes zonder toestemming strafbaar onder de Wet seksuele misdrijven. Ook het doorsturen kan strafbaar zijn. Slachtoffers kunnen aangifte doen en verwijdering eisen. Dat sluit aan bij de AVG, die portretfoto’s als persoonsgegevens beschermt.

Voor bedrijven en overheden betekent dit dat zij voorzichtig moeten omgaan met beelddata. Dataminimalisatie en versleuteling zijn basisvereisten onder de AVG. Het inzetten van AI-tools moet een duidelijke grondslag hebben. Training en toezicht helpen incidenten te voorkomen.

Grenzen aan techniek

Veiligheidsfilters zijn nooit waterdicht. Creatieve prompts of nieuwe modellen kunnen blokkades omzeilen. Ook kunnen gebruikers elders deepfakes genereren en die op X uploaden. Daarom blijft moderatie op platformniveau nodig.

Tegelijk kan strenge filtering onbedoeld nuttige toepassingen raken. Denk aan journalistieke factchecks of onderzoek naar misbruik. Goede systemen herkennen context, maar maken soms fouten. Dat leidt tot te veel of te weinig blokkades.

Er zijn technische hulpmiddelen om herkomst te tonen, zoals watermerken of content credentials. Die maken zichtbaar of een beeld door AI is gegenereerd of aangepast. Niet alle apps ondersteunen dit nog. Zonder brede adoptie blijft het effect beperkt.

Gevolgen in Nederland

Voor Nederlandse gebruikers verandert vooral het gedrag van Grok op X. Verzoeken om “uitkleden” werken niet meer en risicovolle beelden worden geblokkeerd. Meldingen van misbruik kunnen via de rapportageknoppen van X. Bewijs bewaren helpt bij aangifte.

Scholen, gemeenten en bedrijven doen er goed aan hun beleid te actualiseren. Neem deepfakes op in mediawijsheid en incidentrespons. Leg vast welke AI-tools zijn toegestaan en waarvoor. Betrek de functionaris gegevensbescherming.

Ontwikkelaars die voor de EU bouwen moeten vooruitlopen op de AI Act. Leg technische documentatie, veiligheidsmaatregelen en trainingsdata vast. Beoordeel of je model deepfakes kan maken en hoe je dat voorkomt. Dat verkleint juridische en reputatierisico’s.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>