X, het platform van Elon Musk, ligt onder vuur in de Europese Unie. De aanleiding is dat via Grok, de ingebouwde chatbot van X, seksueel getinte AI-beelden circuleren. Toezichthouders verwijzen naar de Digital Services Act (DSA) en nieuwe plichten uit de Europese AI-verordening. Op het moment van schrijven riskeert X een tijdelijke opschorting van functies of een EUāverbod als er niet snel wordt ingegrepen.
EU richt zich op Grok
Grok is het AIāsysteem van xAI dat in X is geĆÆntegreerd. Het model kan tekst genereren en, in sommige varianten, ook beelden aansturen of bewerken. Gebruikers melden dat via Grok seksuele en mogelijk nietāconsensuele afbeeldingen verschijnen. Dat raakt direct aan regels voor bescherming van minderjarigen en tegen deepfakes.
De Europese Commissie onderzoekt of X voldoende maatregelen neemt. Het gaat om moderatie, snelle verwijdering en leeftijdsbescherming. Ook kijkt Brussel naar de rol van xAI als leverancier van het datamodel. De vraag is wie welke plicht heeft: maker van het model of uitbater van het platform.
De druk is hoog, omdat X een āzeer groot online platformā is onder de DSA. Die status brengt zwaardere eisen mee. Denk aan risicoāanalyses, onafhankelijke audits en effectieve meldknoppen. Als dat tekortschiet, kan de Commissie tijdelijke maatregelen opleggen.
Mogelijke DSAāmaatregelen
De DSA verplicht platforms om illegale inhoud snel aan te pakken en systemische risicoās te verkleinen. Seksuele deepfakes zonder toestemming kunnen in EUālanden strafbaar zijn en vallen dus onder die plicht. Platforms moeten ook extra stappen zetten om minderjarigen te beschermen. Dat betekent filters, leeftijdscontroles en veilige standaardinstellingen.
Bij ernstige of herhaalde tekortkomingen kan de Commissie ingrijpen. Sancties lopen op tot 6 procent van de wereldwijde omzet. In het uiterste geval kan een dienst of functie tijdelijk worden geschorst in de EU. Voor X kan dat neerkomen op het uitzetten van Grokāfuncties of beperkingen op beeldgeneratie.
Transparantie is een tweede pijler. X moet tonen hoe Grok is afgeschermd tegen misbruik. Denk aan beleid, data over verwijderingen en effectiviteit van blokkades. Zonder helderheid volgt vaak zwaardere handhaving.
Deepfakes en bewijslast
Een deepfake is synthetische media die echt lijkt, maar door een algoritme is gemaakt of gemanipuleerd. Zulke beelden kunnen reputaties schaden en kinderen in gevaar brengen. Daarom eist Europa duidelijke labels en snelle verwijdering bij misbruik. Watermerken en detectiesignalen helpen daarbij.
āEen deepfake is een door AI gemaakt of bewerkt beeld, geluid of video die een echt persoon of gebeurtenis nabootst.ā
Voor X speelt bewijsvoering een rol. Kan het bedrijf aantonen dat Grok seksuele content standaard blokkeert? En dat meldingen binnen uren, niet dagen, worden afgehandeld? Zonder data daarover is het moeilijk aan te tonen dat de risicoās onder controle zijn.
Ook de keten telt mee. Als Grok gebaseerd is op een generatief model zonder robuuste veiligheidsfilters, is het eindresultaat moeilijk te polijsten. Dan moet xAI als leverancier updates leveren, zoals strengere promptāfilters en betere herkenning van naaktheid en minderjarigen. Ketenafspraken zijn hier cruciaal.
AIāverordening verplicht transparantie
De Europese AIāverordening (AI Act) stelt aparte eisen aan generatieve systemen. Leveranciers van algemene AIāmodellen moeten technische documentatie, risicobeperking en beveiliging bieden. Wie deepfakes publiceert, moet dat duidelijk kenbaar maken aan gebruikers. Dat kan via zichtbare labels en ingebedde watermerken.
Voor X betekent dit dubbele compliance. Als uitbater van een platform valt het onder de DSA. Als gebruiker en mogelijk distributeur van generatieve AI valt het ook onder de AIāverordening. Die combinatie vraagt om consistente maatregelen, van training tot publicatie.
Op het moment van schrijven werkt de Europese Commissie aan uitvoeringsrichtlijnen. Die moeten verduidelijken welke watermerkāstandaarden voldoen. Bedrijven doen er goed aan die standaarden nu al te testen. Zo voorkomen ze verrassingen zodra de regels ingaan.
Nederlandse wet grijpt sneller in
In Nederland is de Wet seksuele misdrijven sinds 2024 van kracht. Het maken of verspreiden van seksuele deepfakes zonder toestemming is strafbaar. Slachtoffers kunnen aangifte doen en platforms moeten na een melding snel handelen. Dat sluit aan op de DSAāplicht tot snelle verwijdering.
De Autoriteit Persoonsgegevens wijst daarnaast op de AVG. Beelden van herkenbare personen zijn persoonsgegevens. Verwerking daarvan vraagt een rechtmatige grondslag en dataminimalisatie. Dat geldt ook voor AIāsystemen die materiaal genereren of bewerken.
Publieke instellingen en scholen moeten extra voorzichtig zijn. Gebruik van X of Grok in onderwijs of jeugdzorg brengt zorgplichten mee. Denk aan het uitschakelen van risicovolle functies en het instellen van strengere filters. Transparante communicatie naar ouders en leerlingen is nodig.
Wat X nu moet doen
De snelste stap is het streng beperken of tijdelijk uitzetten van beeldgeneratie via Grok in de EU. Daarnaast zijn hardere inhoudsfilters nodig, inclusief blokken op namen van personen en minderjarigen. Ook hoort daar een verbeterde leeftijdscontrole bij. Standaardinstellingen moeten veilig zijn, niet optioneel.
Verder moet X zijn processen aantoonbaar maken. Publiceer cijfers over meldingen, verwijdertijden en terugkeer van dezelfde beelden. Laat onafhankelijke auditors meekijken. Dat vergroot vertrouwen bij toezichthouders en gebruikers.
Tot slot moet xAI technische verbeteringen doorvoeren. Watermerken en detectiesignalen moeten standaard zijn. Promptāinstructies en outputācontroles moeten seksuele en schadelijke content tegenhouden. Zo verkleint X het risico op een EUāverbod en voldoet het aan de DSA en de AIāverordening.
