X en Grok onder vuur: seksuele AI-beelden leiden tot Europees verbod

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • X en Grok onder vuur: seksuele AI-beelden leiden tot Europees verbod

Amsterdam, 13 januari 2026 17:46 

X, het platform van Elon Musk, ligt onder vuur in de Europese Unie. De aanleiding is dat via Grok, de ingebouwde chatbot van X, seksueel getinte AI-beelden circuleren. Toezichthouders verwijzen naar de Digital Services Act (DSA) en nieuwe plichten uit de Europese AI-verordening. Op het moment van schrijven riskeert X een tijdelijke opschorting van functies of een EU‑verbod als er niet snel wordt ingegrepen.

EU richt zich op Grok

Grok is het AI‑systeem van xAI dat in X is geĆÆntegreerd. Het model kan tekst genereren en, in sommige varianten, ook beelden aansturen of bewerken. Gebruikers melden dat via Grok seksuele en mogelijk niet‑consensuele afbeeldingen verschijnen. Dat raakt direct aan regels voor bescherming van minderjarigen en tegen deepfakes.

De Europese Commissie onderzoekt of X voldoende maatregelen neemt. Het gaat om moderatie, snelle verwijdering en leeftijdsbescherming. Ook kijkt Brussel naar de rol van xAI als leverancier van het datamodel. De vraag is wie welke plicht heeft: maker van het model of uitbater van het platform.

De druk is hoog, omdat X een ā€œzeer groot online platformā€ is onder de DSA. Die status brengt zwaardere eisen mee. Denk aan risico‑analyses, onafhankelijke audits en effectieve meldknoppen. Als dat tekortschiet, kan de Commissie tijdelijke maatregelen opleggen.

Mogelijke DSA‑maatregelen

De DSA verplicht platforms om illegale inhoud snel aan te pakken en systemische risico’s te verkleinen. Seksuele deepfakes zonder toestemming kunnen in EU‑landen strafbaar zijn en vallen dus onder die plicht. Platforms moeten ook extra stappen zetten om minderjarigen te beschermen. Dat betekent filters, leeftijdscontroles en veilige standaardinstellingen.

Bij ernstige of herhaalde tekortkomingen kan de Commissie ingrijpen. Sancties lopen op tot 6 procent van de wereldwijde omzet. In het uiterste geval kan een dienst of functie tijdelijk worden geschorst in de EU. Voor X kan dat neerkomen op het uitzetten van Grok‑functies of beperkingen op beeldgeneratie.

Transparantie is een tweede pijler. X moet tonen hoe Grok is afgeschermd tegen misbruik. Denk aan beleid, data over verwijderingen en effectiviteit van blokkades. Zonder helderheid volgt vaak zwaardere handhaving.

Deepfakes en bewijslast

Een deepfake is synthetische media die echt lijkt, maar door een algoritme is gemaakt of gemanipuleerd. Zulke beelden kunnen reputaties schaden en kinderen in gevaar brengen. Daarom eist Europa duidelijke labels en snelle verwijdering bij misbruik. Watermerken en detectiesignalen helpen daarbij.

ā€œEen deepfake is een door AI gemaakt of bewerkt beeld, geluid of video die een echt persoon of gebeurtenis nabootst.ā€

Voor X speelt bewijsvoering een rol. Kan het bedrijf aantonen dat Grok seksuele content standaard blokkeert? En dat meldingen binnen uren, niet dagen, worden afgehandeld? Zonder data daarover is het moeilijk aan te tonen dat de risico’s onder controle zijn.

Ook de keten telt mee. Als Grok gebaseerd is op een generatief model zonder robuuste veiligheidsfilters, is het eindresultaat moeilijk te polijsten. Dan moet xAI als leverancier updates leveren, zoals strengere prompt‑filters en betere herkenning van naaktheid en minderjarigen. Ketenafspraken zijn hier cruciaal.

AI‑verordening verplicht transparantie

De Europese AI‑verordening (AI Act) stelt aparte eisen aan generatieve systemen. Leveranciers van algemene AI‑modellen moeten technische documentatie, risicobeperking en beveiliging bieden. Wie deepfakes publiceert, moet dat duidelijk kenbaar maken aan gebruikers. Dat kan via zichtbare labels en ingebedde watermerken.

Voor X betekent dit dubbele compliance. Als uitbater van een platform valt het onder de DSA. Als gebruiker en mogelijk distributeur van generatieve AI valt het ook onder de AI‑verordening. Die combinatie vraagt om consistente maatregelen, van training tot publicatie.

Op het moment van schrijven werkt de Europese Commissie aan uitvoeringsrichtlijnen. Die moeten verduidelijken welke watermerk‑standaarden voldoen. Bedrijven doen er goed aan die standaarden nu al te testen. Zo voorkomen ze verrassingen zodra de regels ingaan.

Nederlandse wet grijpt sneller in

In Nederland is de Wet seksuele misdrijven sinds 2024 van kracht. Het maken of verspreiden van seksuele deepfakes zonder toestemming is strafbaar. Slachtoffers kunnen aangifte doen en platforms moeten na een melding snel handelen. Dat sluit aan op de DSA‑plicht tot snelle verwijdering.

De Autoriteit Persoonsgegevens wijst daarnaast op de AVG. Beelden van herkenbare personen zijn persoonsgegevens. Verwerking daarvan vraagt een rechtmatige grondslag en dataminimalisatie. Dat geldt ook voor AI‑systemen die materiaal genereren of bewerken.

Publieke instellingen en scholen moeten extra voorzichtig zijn. Gebruik van X of Grok in onderwijs of jeugdzorg brengt zorgplichten mee. Denk aan het uitschakelen van risicovolle functies en het instellen van strengere filters. Transparante communicatie naar ouders en leerlingen is nodig.

Wat X nu moet doen

De snelste stap is het streng beperken of tijdelijk uitzetten van beeldgeneratie via Grok in de EU. Daarnaast zijn hardere inhoudsfilters nodig, inclusief blokken op namen van personen en minderjarigen. Ook hoort daar een verbeterde leeftijdscontrole bij. Standaardinstellingen moeten veilig zijn, niet optioneel.

Verder moet X zijn processen aantoonbaar maken. Publiceer cijfers over meldingen, verwijdertijden en terugkeer van dezelfde beelden. Laat onafhankelijke auditors meekijken. Dat vergroot vertrouwen bij toezichthouders en gebruikers.

Tot slot moet xAI technische verbeteringen doorvoeren. Watermerken en detectiesignalen moeten standaard zijn. Prompt‑instructies en output‑controles moeten seksuele en schadelijke content tegenhouden. Zo verkleint X het risico op een EU‑verbod en voldoet het aan de DSA en de AI‑verordening.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>