De Britse toezichthouder Ofcom is een officieel onderzoek gestart naar X, het sociale platform van Elon Musk. Het gaat om de inzet van de AI-chatbot Grok en de aanpak van beeldmisbruik, zoals deepfake- en wraakporno. Het onderzoek speelt in het Verenigd Koninkrijk, maar raakt ook Europese regels. Ook de Europese AI-verordening gevolgen overheid en platforms hangen boven de markt, omdat generatieve systemen nieuwe plichten krijgen.
Ofcom onderzoekt Xās Grok
Grok is de chatbot van xAI, die binnen X antwoorden en samenvattingen geeft. Het systeem is een zogenoemd taalmodel, een algoritme dat op basis van veel tekst voorspelt wat het volgende woord wordt. Ofcom bekijkt of deze functie veilig is ingebed in X. De vraag is of Grok risicovolle of illegale inhoud kan versterken of makkelijker vindbaar maakt.
Het onderzoek gaat niet alleen over wat Grok zegt, maar ook over de werking eromheen. Denk aan toegang voor minderjarigen, zichtbare waarschuwingen en filters tegen misbruik. Ofcom wil weten hoe X misleidende of schadelijke uitkomsten blokkeert. Ook kijkt de toezichthouder naar hoe klachten worden afgehandeld.
X positioneert Grok als een handige vraagbaak binnen het platform. Maar zoān geĆÆntegreerde functie kan ook moderatie lastiger maken. Antwoorden kunnen snel worden gedeeld en gaan viraal. Dat vergroot de druk op X om risicoās vooraf te beperken.
Aandacht voor beeldmisbruik
Een tweede pijler is beeldmisbruik, zoals ongevraagde naaktbeelden en AI-gegenereerde deepfakes. Een deepfake is een nepbeeld of -video die met kunstmatige intelligentie is gemaakt. Ofcom onderzoekt of X meldingen snel oppakt en bewijsmateriaal veilig bewaart. Ook tellen preventie en automatische detectie mee.
Platforms gebruiken vaak hashing, een soort digitale vingerafdruk, om bekende afbeeldingen te herkennen. Dat helpt om eerder verwijderde beelden weg te houden. Maar bij nieuwe AI-gegenereerde beelden werkt dat minder goed. Daarom kijkt Ofcom ook naar proactieve opsporing en menselijk toezicht.
In Nederland is het verspreiden van intieme beelden zonder toestemming strafbaar onder de Wet seksuele misdrijven. Voor gebruikers en slachtoffers is snelle verwijdering cruciaal. Samenwerking met politie en instanties blijft nodig, zeker wanneer beelden grensoverschrijdend circuleren.
Onder de Britse Online Safety Act kan Ofcom boetes opleggen tot £18 miljoen of 10% van de wereldwijde jaaromzet.
Online Safety Act zet kader
Het onderzoek valt onder de Britse Online Safety Act. Die wet verplicht grote platforms om illegale en schadelijke inhoud actief te beperken. Ook geĆÆntegreerde AI-functies, zoals Grok, vallen onder die zorgplicht. Ofcom kan aanvullende maatregelen eisen of sancties opleggen.
De regels vragen om āsafety by designā. Dat betekent dat risicoās al bij het ontwerp worden aangepakt. Voorbeeldmaatregelen zijn strengere leeftijdscontroles, betere meldknoppen en transparantie over algoritmen. Het gaat om praktische waarborgen, niet alleen om beloftes.
Voor X weegt mee dat AI-antwoorden zich snel verspreiden. Een fout of schadelijk advies kan in minuten miljoenen mensen bereiken. Daarom let de toezichthouder op tempo van ingrijpen en duidelijkheid richting gebruikers. Documentatie en audits worden belangrijk bewijs.
Europese regels drukken mee
Ook in de EU gelden zware plichten voor grote platforms. X is onder de Digital Services Act een zeer groot online platform en moet systemische risicoās beperken, zoals deepfakes en desinformatie. Dat vraagt om risicobeoordelingen, labeling en onafhankelijke audits. Overtredingen kunnen hoge boetes opleveren.
De Europese AI-verordening (AI Act) voegt daar transparantie-eisen aan toe voor generatieve modellen. Deepfakes moeten duidelijk herkenbaar zijn als bewerkt of synthetisch. Leveranciers van algemene AI-modellen, zoals xAI, krijgen zorgplichten rond veiligheid en documentatie. De meeste verplichtingen worden tussen 2025 en 2026 van kracht, op het moment van schrijven.
Privacyrecht blijft een extra laag. Bij het verwerken van beelden gelden onder de AVG strenge eisen, zoals dataminimalisatie en beveiliging. Voor overheden en platforms spelen dus zowel DSA- als AIāverordening gevolgen overheid en publieke diensten. Nationale toezichthouders, zoals de Autoriteit Persoonsgegevens, houden hier ook toezicht op.
Gevolgen voor X en gebruikers
Voor X kan het onderzoek leiden tot extra maatregelen of boetes. Denk aan strengere filters voor Grok, betere detectie van beeldmisbruik en snellere reactietijden. Ook kan Ofcom eisen dat X duidelijker uitlegt hoe Grok werkt en welke grenzen gelden. Gebruikers krijgen dan waarschijnlijk meer waarschuwingen en meldopties te zien.
Voor Nederlandse en andere Europese gebruikers lopen onderzoeken en regels door elkaar. De Europese Commissie handhaaft de DSA, terwijl nationale autoriteiten toezien op privacy en strafrecht. In de praktijk dwingt dit platforms tot ƩƩn hoger veiligheidsniveau. Verschillen per regio blijven mogelijk, maar worden kleiner.
Slachtoffers van beeldmisbruik hebben baat bij snellere, voorspelbare processen. Heldere meldkanalen en vaste termijnen geven zekerheid. Transparantie over AIāfilters vergroot het vertrouwen. Dat helpt ook onderzoekers en hulpinstanties die slachtoffers bijstaan.
Wat we nog niet weten
Ofcom deelt later pas voorlopige bevindingen. Onzeker is welke datasets, prompts of moderatie-instellingen bij Grok precies worden bekeken. Ook de termijn voor mogelijke handhaving is nog onduidelijk. X en xAI kunnen tussentijds vrijwillig verbeteringen doorvoeren.
Technisch is veel afhankelijk van hoe Grok met beelden omgaat. Het verschil tussen alleen tekstbegrip en multimodale functies is groot. Als Grok beelden kan begrijpen of beschrijven, gelden extra risicoās. Dan tellen detectie, labeling en menselijk toezicht nog zwaarder mee.
Voor beleidsmakers is dit een testdossier. Het laat zien hoe AI-functies binnen sociale netwerken onder bestaande wetgeving vallen. En hoe de lijnen tussen contentmoderatie en AIātoezicht vervagen. De uitkomst bepaalt de lat voor andere platforms met vergelijkbare functies.
