Tijdens het Israel-Iran conflict in juni 2025 ging een nep AI-video over verwoeste gebouwen in Haifa viraal op Facebook. De video verzamelde meer dan 700.000 views. Meta deed niets, ondanks meerdere meldingen van gebruikers. Nu tikt de Oversight Board Meta op de vingers en eist een complete herziening van hoe het platform deepfakes opspoort en labelt.
Wat ging er precies mis?
Een gebruiker in de Filipijnen plaatste de video op een Facebook-pagina die zich voordeed als nieuwsbron. Zes gebruikers meldden de post aan Meta, maar het bedrijf beoordeelde hem niet. Ook externe factcheckers namen hem niet onder de loep. De video bleef online zonder enig AI-label.
Pas nadat de Oversight Board vragen stelde over de identiteit achter de pagina, schakel Meta drie accounts uit wegens betrokkkenheid bij engagement-misbruik en inauthenticiteit. De pagina was op het moment van de video bovendien goedgekeurd voor inkomsten via Meta's Stars-programma. Een bedrijf dat advertentie-inkomsten deelt met een account dat aantoonbaar nepnieuws verspreidt tijdens een oorlog.
Hoe Meta's systeem structureel faalt
Meta's AI-labelingssysteem werkt op twee manieren: gebruikers kunnen zelf aangeven dat content AI-gegenereerd is, of een moderator escaleert de beoordeling handmatig. Beide methodes zijn te traag en te afhankelijk van menselijk ingrijpen tijdens een crisis.
De Oversight Board concludeerde dat Meta's systeem "overly dependent on self-disclosure of AI usage and escalated review" is en daarmee niet aansluit op de realiteit van het huidige online landschap. Een nep oorlogsvideo kan in uren miljoenen mensen bereiken. Handmatige review is dan al te laat.
Waarom dit meer is dan een technisch falen
De Oversight Board noemt het Israel-Iran conflict een keerpunt in de verspreiding van misleidende AI-content op sociale media. Tijdens datzelfde conflict werden ook soortgelijke problemen gesignaleerd in Iran en Venezuela. Deepfakes worden ingezet als wapen in informatieoorlogen, en Meta's platforms zijn het slagveld.
De board introduceert daarbij het begrip "liar's dividend": wanneer mensen niet meer kunnen onderscheiden wat echt is en wat nep, verliest iedereen het vertrouwen in alle informatie. Dat raakt niet alleen mensen die oorlogsnieuws volgen, maar ondermijnt het vertrouwen in media en journalistiek in het algemeen. Een platform dat dit structureel laat voortbestaan draagt actief bij aan de afbraak van het publieke debat.
Meta en deepfakes: een patroon van te weinig, te laat
Meta verving eerder het label "Made with AI" door het bredere "AI info"-label na klachten over onduidelijkheid. Die aanpassing trok zelf ook kritiek: de nieuwe labels zouden te vaag zijn en te makkelijk over het hoofd gezien worden.
Op de avond voor de inauguratie van Donald Trump in januari kondigde CEO Mark Zuckerberg aan dat Meta stopt met externe factcheckers omdat die te politiek bevooroordeeld zouden zijn. Dat besluit valt nu samen met een ruling die stelt dat Meta's deepfakeaanpak structureel tekortschiet, juist op het moment dat factcheckers harder nodig zijn dan ooit.
Wat de Oversight Board nu concreet eist
De board doet geen vrijblijvende suggesties. Ze leggen Meta zeven concrete verplichtingen voor. De belangrijkste: Meta moet een aparte Community Standard voor AI-gegenereerde content opstellen, los van de bestaande misinformatieregels. Daarnaast moet het bedrijf het C2PA-systeem consequent toepassen, waarbij metadata in content wordt ingebed zodat de herkomst automatisch te traceren is.
De board roept Meta op om real-time AI-detectie te ontwikkelen en High Risk AI-labels veel vaker en sneller te plaatsen, ondersteund door geautomatiseerde systemen die niet wachten op menselijke escalatie. De aanbevelingen zijn niet juridisch bindend, maar dragen wel significant gewicht.
Wat kun jij als gebruiker nu doen?
Meta gaat dit niet van de ene op de andere dag oplossen. Zolang de platformen achterlopen op deepfake-technologie, is kritisch mediagebruik jouw belangrijkste verdediging.
- Controleer bij twijfel de bron van een video: is de pagina geverifieerd en hoe oud is het account?
- Gebruik tools zoals Google's reverse image search of InVID om de herkomst van beelden te achterhalen
- Meld verdachte AI-content actief via de rapportagefunctie op Facebook en Instagram
- Volg betrouwbare factcheckers zoals AFP Fact Check die deepfakes tijdens conflicten actief monitoren
Jouw melding telt. Het is bewezen dat platformmeldingen de enige trigger waren die dit onderzoek op gang brachten.
Het platform dat iedereen verbindt, faalt als het er echt toe doet
Meta beheert de grootste informatie-infrastructuur ter wereld, maar kan een nep oorlogsvideo niet tijdig labelen. De Oversight Board heeft nu zwart op wit gezet dat dit een structureel productprobleem is, geen incident. De vraag is niet of Meta dit kan oplossen, maar of het dat ook wil.
