Miljarden views: racistische en seksistische AI-video’s domineren TikTok

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Miljarden views: racistische en seksistische AI-video’s domineren TikTok

Amsterdam, 5 december 2025 13:40 

Op TikTok circuleren op het moment van schrijven grote aantallen door AI gegenereerde video’s met racistische en seksistische inhoud. Deze clips halen maandelijks miljarden weergaven wereldwijd, ook in Europa en Nederland. Het platform van ByteDance staat zo onder druk om beter te modereren en transparanter te zijn. De combinatie van makkelijke generatieve tools en het aanbevelingsalgoritme jaagt de groei van dit materiaal aan, wat raakt aan de Europese AI-verordening en de Digital Services Act.

Algoritme vergroot zichtbaarheid

Het gaat vooral om korte video’s met synthetische stemmen of beelden die stereotypes herhalen of vernederende grappen maken. Generatieve AI is software die zelf tekst, audio of beeld kan maken op basis van voorbeelden. De drempel om zulke clips te produceren is laag, waardoor veel makers formats kopiëren en variaties plaatsen. Dat levert een constante stroom van soortgelijke video’s op.

TikTok werkt met een aanbevelingsalgoritme: een reeks regels die bepaalt welke video je te zien krijgt. Dat algoritme beloont sterke betrokkenheid, zoals likes, reacties en herhalingen. Content die emoties oproept, positief of negatief, krijgt daardoor sneller bereik. Gevolg: kwetsende AI-video’s kunnen in korte tijd massaal worden verspreid.

Analyses van trending hashtags en interacties laten zien dat dit genre structureel publiek trekt. De video’s verschijnen in verschillende talen en formats, van ‘humoristische’ sketches tot geanimeerde avatars. Ook gehercirculeerde content uit andere apps duikt op, vaak opnieuw verpakt met AI-voice-overs. Zo ontstaat een ecosysteem dat zichzelf versterkt.

Miljarden weergaven per maand voor AI-video’s met racistische en seksistische inhoud.

Moderatie blijft achter bij schaal

TikTok verbiedt haatzaaien en discriminatie in zijn communityregels. Toch schiet handhaving tekort door de enorme hoeveelheid uploads en de snelheid waarmee trends verschuiven. Automatische filters herkennen niet alle varianten, zeker niet als makers taal en beeld subtiel aanpassen. Daardoor glipt veel problematische inhoud door de mazen van het net.

Het platform plaatst “AI-generated” labels op synthetische media, maar die zijn nog niet overal consequent zichtbaar. Niet alle makers geven namelijk aan dat een video met AI is gemaakt. En als materiaal buiten TikTok wordt geproduceerd en vervolgens geüpload, ontbreekt soms de herkomstinformatie. Dat belemmert snelle beoordeling en verwijdering.

ByteDance stimuleert creatie met eigen tools zoals CapCut, die ook AI-functies bieden. Dat is handig voor makers, maar verhoogt tegelijk de productiesnelheid van slechte content. Zonder krachtige detectie en menselijke controle schaalt misbruik mee. Het resultaat is een gat tussen beleid op papier en praktijk op het scherm.

EU-regels dwingen transparantie

De Digital Services Act (DSA) verplicht grote platforms zoals TikTok om systeemrisico’s te beperken, waaronder haatzaaien en effecten op minderjarigen. Ze moeten uitleg geven over hun aanbevelingssystemen en onderzoekers toegang geven tot data. De Europese Commissie kan bij nalatigheid forse boetes opleggen. Het toezicht geldt in de hele EU, dus ook voor Nederlandse gebruikers en instellingen.

De Europese AI-verordening (AI Act) legt daarbovenop transparantieregels op voor synthetische media. Wie een deepfake publiceert — een realistisch ogende, door AI gemaakte video of stem — moet duidelijk maken dat het niet echt is. Deze verplichtingen treden gefaseerd in werking vanaf 2025. Voor overheden en publieke diensten betekent dit: herkomst van beeld en audio controleren voordat ze materiaal delen of erop reageren.

Voor privacy blijft de AVG leidend: dataminimalisatie en duidelijke doelen zijn vereist bij inzet van algoritmen. Bij het trainen of inzetten van AI-stemmen en avatars is toestemming essentieel, zeker als herkenbare personen worden nagebootst. Platformen moeten die regels vertalen naar effectieve tools voor gebruikers. Denk aan beter zichtbare labels, herkomstbewijzen en eenvoudige meldingsopties.

Risico’s voor jongeren en minderheden

Nederlandse tieners gebruiken TikTok intensief, wat de impact vergroot. Blootstelling aan seksistische of racistische boodschappen kan gedrag en zelfbeeld beïnvloeden. De DSA vraagt daarom extra bescherming voor minderjarigen. Dat vereist strengere standaardinstellingen en minder agressieve aanbevelingen.

Voor minderheden vergroten AI-video’s met stereotypen de kans op stigmatisering. Algoritmen die engagement najagen, herhalen patronen die goed scoren, ook als die schadelijk zijn. Dit kan publieke debatten vervormen en sociale spanningen aanwakkeren. De maatschappelijke kosten zijn lastig te meten, maar de zichtbaarheid is hoog.

Ook merken en adverteerders lopen risico als hun uitingen naast dergelijke clips verschijnen. Brand safety-tools zijn niet altijd opgewassen tegen snelle AI-varianten. Europese adverteerders vragen daarom om strengere plaatsingscontroles en heldere rapportages. Dat zet druk op TikTok om meetbare kwaliteitsgaranties te bieden.

TikTok belooft strengere labels

TikTok kondigde in 2024 bredere labeling aan van AI-inhoud en sloot zich aan bij Content Credentials (C2PA), een open standaard voor herkomstinformatie. Daarmee kan het platform bij uploads laten zien of beeld of audio synthetisch is gemaakt. De techniek werkt echter pas optimaal als makerstools die gegevens meesturen. Zolang dat niet overal gebeurt, blijven gaten in het systeem bestaan.

Effectieve mitigatie vraagt om drie dingen: betere detectie, duidelijke keuzes voor gebruikers en onafhankelijke controle. DSA-regels helpen daarbij, via audits en toegang voor onderzoekers. Transparante uitleg over hoe de “For You”-aanbevelingen werken is cruciaal. Net als de mogelijkheid om die aanbevelingen aan te passen of uit te schakelen.

Voor Nederland betekent dit dat toezichthouders en onderwijsinstellingen mediageletterdheid moeten blijven versterken. Gebruikers moeten AI-labels herkennen en weten hoe te melden. Overheden en publieke organisaties die TikTok inzetten, moeten rekening houden met de Europese AI-verordening en de DSA. Dat maakt hun communicatie betrouwbaarder en helpt misleiding te beperken.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>