AI-video van Britse scholieren die tot Allah bidden veroorzaakt woede

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • AI-video van Britse scholieren die tot Allah bidden veroorzaakt woede

Amsterdam, 14 november 2025 07:31 

Een AI-video die Britse leerlingen laat bidden tot Allah circuleert massaal op sociale media. Het filmpje wordt gebruikt om verontwaardiging en woede aan te wakkeren, vooral rond migratie en religie. De beelden gaan rond in het Verenigd Koninkrijk en bereiken ook Nederland en Belgiƫ. De kwestie raakt aan regels uit de Europese AI-verordening en de AVG over gemanipuleerde media en privacy.

AI-video wakkert woede aan

Het circulerende fragment wekt de indruk dat kinderen in een Britse school gedwongen worden tot een religieuze rite. Accounts op X, TikTok en Telegram delen het met alarmerende teksten om emotie en polarisatie te creƫren. De posts krijgen veel reacties en herpublicaties, vaak zonder context of bronvermelding. Zo ontstaat snel een beeld dat verder gaat dan de feiten.

De timing van de verspreiding is niet toevallig. Makers van misleidende content mikken op momenten van spanning in het publieke debat. Door religie en onderwijs te combineren, stijgt de kans op verontwaardiging en delen gebruikers sneller. Dat vergroot bereik en invloed, ook buiten het Verenigd Koninkrijk.

Voor gebruikers is het lastig om echt van nep te onderscheiden. Korte, verticale video’s versterken dat effect, omdat details moeilijker te controleren zijn. Bovendien verspreiden kopieĆ«n zich via uiteenlopende kanalen en landen heen. Dat bemoeilijkt tegenspraak en correcties.

Beelden blijken synthetisch

Onderzoek van factcheckers wijst op duidelijke AI-kenmerken in het filmpje. Denk aan onnatuurlijke lichtval, rafelige randen rond lichamen en wisselende details tussen frames. Ook kloppen mondbewegingen niet met het geluid, wat duidt op synthetische spraak. Zulke tekenen komen vaak voor bij door algoritmen samengestelde video’s.

Het is onduidelijk welke generator is gebruikt. Er zijn meerdere systemen die realistische video en stemmen maken op basis van tekst, een zogeheten generatief model. Zulke modellen leren patronen uit grote hoeveelheden beeld en audio en bouwen daar nieuwe scĆØnes mee. Dat maakt overtuigende, maar valse situaties mogelijk.

De video past in een breder patroon van deepfakes die inspelen op maatschappelijke gevoeligheden. Het doel is zelden informatie, maar vooral reactie uitlokken. Daardoor blijft de inhoud vaak vaag, zodat hij in verschillende contexten inzetbaar is. Desinformatie profiteert van die kneedbaarheid.

Platforms grijpen beperkt in

Een deel van de uploads is verwijderd of gelabeld, maar veel kopieƫn blijven beschikbaar. Op het moment van schrijven verschilt de aanpak per platform en zelfs per land. X gebruikt Community Notes, terwijl Meta AI-labels test op Facebook en Instagram. TikTok combineert detectie met verwijdering en waarschuwingen.

In de EU vallen deze diensten onder de Digital Services Act (DSA). Grote platforms moeten ā€œsystemische risico’sā€ zoals desinformatie verminderen en risk assessments uitvoeren. Dat omvat sneller ingrijpen, inzicht in aanbevelingsalgoritmen en toegang voor onderzoekers. Voor gebruikers moet transparantie verbeteren, bijvoorbeeld via duidelijke labels en context.

Handhaving blijft echter een uitdaging. Content verschuift snel tussen kanalen en opmaakvormen, wat detectie bemoeilijkt. Bovendien is automatische herkenning van synthetische media niet waterdicht. Foutmarges vragen om menselijke beoordeling, die schaars en kostbaar is.

AI-verordening verplicht labels

De Europese AI-verordening stelt transparantie-eisen voor deepfakes. Wie in de EU synthetische of gemanipuleerde media publiceert, moet dat duidelijk kenbaar maken. Uitzonderingen zijn beperkt, bijvoorbeeld voor satire of kunst met gerechtvaardigd publiek belang. Die plicht geldt voor zowel makers als verspreiders van het materiaal.

ā€œWie deepfakes publiceert in de EU, moet duidelijk maken dat de inhoud door AI is gegenereerd of gewijzigd.ā€

Voor scholen en minderjarigen geldt bovendien de AVG. Het publiceren of bewerken van herkenbare gezichten van kinderen vereist een rechtsgrond en dataminimalisatie. Onrechtmatige verwerking kan leiden tot klachten en boetes voor de betrokken partijen. Anonimiseren en blurren zijn daarom minimale vereisten.

Deze regels gaan gefaseerd in, met extra aandacht voor risicovolle toepassingen. Generatieve modellen en hun aanbieders moeten technische hulpmiddelen bieden voor herkenning en labeling. Overheden en toezichthouders in de EU bereiden richtsnoeren voor praktische uitvoering. Dat moet misbruik rond verkiezingen en in het onderwijs verminderen.

Gevolgen voor scholen en ouders

Scholen kunnen door zulke video’s te maken krijgen met intimidatie en reputatieschade. Een helder protocol voor crisiscommunicatie is daarom nodig. Denk aan snelle verificatie, een korte verklaring en ƩƩn aanspreekpunt. Zo voorkomt de school dat geruchten nog verder groeien.

Mediawijsheid helpt om schade te beperken. Leerlingen leren dan hoe ze bron, datum en context controleren. Eenvoudige checks werken al: omgekeerd zoeken, letten op handen, schaduwen en tekst in beeld. Ook is het verstandig om verdachte video’s niet te delen, maar te melden.

In Nederland zijn organisaties als Netwerk Mediawijsheid en Beeld & Geluid beschikbaar met lesmateriaal. EDMO, het Europese netwerk tegen desinformatie, bundelt factchecks en onderzoek. NCTV waarschuwt voor polarisatie door online manipulatie in het publieke domein. Samen kunnen deze partijen scholen ondersteunen bij preventie en weerbaarheid.

Wat dit vraagt van overheid

Overheden moeten regels en praktijk dichter bij elkaar brengen. Dat betekent handhaving van de DSA tegen platformen die structureel te laat ingrijpen. Ook zijn duidelijke richtlijnen nodig voor labeling en bewijslast onder de AI-verordening. Publieke campagnes kunnen burgers helpen nepvideo’s te herkennen.

Voor Nederlandse instellingen spelen inkoopvoorwaarden een rol. Vraag bij leveranciers van AI-tools om ingebouwde watermerken en detectiesupport. Leg vast hoe datasets worden beheerd en gelogd, conform de AVG. Zo ontstaat een keten van verantwoordelijkheid van maker tot publicatie.

Tot slot is internationale samenwerking cruciaal. Desinformatie stopt niet bij grenzen, maar verplaatst zich met het publiek. Europese coƶrdinatie verkleint de speelruimte voor kwaadwillenden. Dat maakt onze digitale ruimte weerbaarder tegen synthetische provocaties.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>