Indonesië blokkeert Grok (xAI/X) na wereldwijde kritiek op uitkleed-AI

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Indonesië blokkeert Grok (xAI/X) na wereldwijde kritiek op uitkleed-AI

Amsterdam, 10 januari 2026 11:38 

Indonesië heeft deze week Grok, de AI-assistent van xAI op X, laten blokkeren. De telecomwaakhond Kominfo meldt zorgen over “uitkleed-AI” en mogelijk misbruik van beeldfuncties. De maatregel geldt landelijk en raakt toegang via de app en het web. De stap volgt op wereldwijde kritiek en voedt het debat over regels, zoals de Europese AI-verordening (AI Act) en de AVG.

Indonesië grijpt in tegen Grok

Het ministerie van Communicatie en Informatica (Kominfo) heeft internetaanbieders opdracht gegeven Grok te beperken of te blokkeren. Grok is de chatbot van xAI en is ingebouwd in X (voorheen Twitter). De overheid zegt te handelen uit voorzorg na ophef over “uitkleed”-algoritmen en schadelijke deepfakes.

De blokkade verloopt doorgaans via IP- en DNS-filters, een gebruikelijke methode in Indonesië. Daardoor ervaren veel gebruikers dat Grok niet of slechts deels werkt, op het moment van schrijven. De toepassing kan per provider en regio verschillen.

Kominfo beroept zich op bestaande regels tegen online pornografie en schadelijke inhoud. Het ministerie wijst op risico’s voor minderjarigen en aantasting van privacy en reputatie. Hoe lang de blokkade duurt en welke voorwaarden xAI krijgt, is nog onduidelijk.

Uitkleedfuncties zijn risicovol

“Uitkleed-AI” is software die van een foto van een geklede persoon een naaktbeeld maakt. Zulke systemen gebruiken generatieve algoritmen om lichaamsonderdelen te “verzinnen” die niet in de bronfoto zitten. Het resultaat lijkt echt, maar is nep en vaak vernederend.

Uitkleed-AI zijn systemen die van een gewone foto een naaktbeeld genereren, zonder toestemming van de geportretteerde.

Technisch werkt dit via beeldbewerking met zogenaamde diffusie- of inpaint-modellen. Het algoritme vult kleding weg en reconstrueert een plausibel lichaam uit statistiek, niet uit waarheid. Daardoor is de schade voor slachtoffers echt, terwijl het beeld fictief is.

Het misbruik treft vooral vrouwen en jongeren, en wordt ingezet voor pesterijen, chantage en desinformatie. Verspreiding via sociale platforms gaat snel, moderatie loopt vaak achter. Dat maakt preventie, snelle verwijdering en duidelijke regels noodzakelijk.

Plichten voor X en xAI

In de EU vallen grote platforms zoals X onder de Digital Services Act (DSA). Zij moeten systemische risico’s beperken, zoals seksuele uitbuiting en deepfakes, en effectieve meld- en verwijderprocessen bieden. Dat geldt ook voor inhoud die buiten de EU is gemaakt maar hier wordt verspreid.

Voor xAI betekent dit dat Grok sterke veiligheidsfilters nodig heeft. Denk aan blokkeren van uitkleed-opdrachten, detectie van ongepaste uploads en scherper toezicht op integraties in de app. Zulke “guardrails” zijn technische en beleidsmatige remmen tegen misbruik.

Transparantie is cruciaal voor vertrouwen. Gebruikers moeten weten wat wel en niet mag, en hoe bezwaar werkt als content wordt verwijderd. Publieke rapportages over misbruik en maatregelen helpen toezichthouders en onderzoekers om effecten te beoordelen.

AI-verordening en AVG-kader

De Europese AI-verordening verplicht makers van generatieve systemen tot transparantie, onder meer bij deepfakes. AI-beelden moeten als kunstmatig herkenbaar zijn en aanbieders moeten risico’s documenteren en beperken. Voor overheden en bedrijven in Europa schept dit heldere normen voor inkoop en gebruik.

Voor Nederlandse en Europese instellingen zijn de gevolgen praktisch: risico-analyses, logboeken en duidelijke gebruikersinformatie worden standaard. Dit raakt ook communicatieafdelingen en onderwijsinstellingen. Zo kan misbruik sneller worden gesignaleerd en gestopt.

Daarnaast geldt de AVG voor alle beeldverwerking met persoonsgegevens. Het ongevraagd maken en delen van seksuele beelden is in strijd met de wet en schendt privacy, zeker bij minderjarigen. Platforms moeten zulke inhoud snel verwijderen en zorgvuldig omgaan met meldingen en bewijs.

Wat dit betekent in Nederland

In Nederland is het delen van seksuele beelden zonder toestemming strafbaar. Dat geldt ook voor deepfake-porno, die slachtoffers ernstig kan raken. Slachtoffers kunnen aangifte doen en platforms om snelle verwijdering vragen.

Scholen, gemeenten en zorginstellingen doen er goed aan beleid en protocollen te actualiseren. Denk aan meldpunten, voorlichting en dataminimalisatie bij gebruik van AI-tools. Ook bij inkoop van AI-diensten is het verstandig te toetsen op filters, moderatie en logging.

Voor burgers blijft alertheid belangrijk. Herken AI-labels, meld misbruik en deel geen beelden door. Wie wordt getroffen, kan hulp zoeken bij politie, juridische steunpunten en organisaties die online schade beperken.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>