Een foto van een massale begrafenis in Iran ging recent rond op X en Telegram. Online onderzoekers tonen nu aan dat het beeld is gemaakt met kunstmatige intelligentie en geen echte opname is. Het beeld werd gedeeld om een enorme opkomst te suggereren, maar blijkt nep. De Europese AI-verordening (AI Act) en de gevolgen voor overheid en platforms in Europa spelen hierbij mee, net als de plichten onder de Digital Services Act.
Beeld blijkt nep
De virale afbeelding toont een zee van mensen, vlaggen en spandoeken bij een begrafenis in Iran. Gebruikers op sociale media presenteerden het als bewijs van een uitzonderlijk grote rouwstoet. Controleurs zagen echter snel dat er iets niet klopte. Het gaat om een gegenereerde scène, geen foto uit de werkelijkheid.
De afbeelding bevat typische AI-artefacten, zoals onleesbare teksten op spandoeken en herhalende patronen in de menigte. Licht en schaduw zijn inconsistent, en sommige gezichten en ledematen vervormen. Zulke foutjes vallen minder op in kleine voorvertoningen op mobiel. Bij inzoomen wordt het bedrog zichtbaar.
Een omgekeerde beeldzoektocht met Google Lens of TinEye levert geen oudere of betrouwbare bron op. Er is geen duidelijke herkomst of metadata, wat vaak gebeurt bij synthetische beelden. Daarmee ontbreekt de basis om het als journalistiek bewijs te gebruiken. De conclusie is dat de foto niet authentiek is.
Signalen van AI-beeld
Generatieve beeldmakers, zoals Midjourney, DALL·E van OpenAI en Stable Diffusion van Stability AI, zetten tekst om in beelden. Deze systemen zijn sterk in sfeer en compositie, maar struikelen nog over detail. Vooral handen, gezichten, typografie en logica in drukte geven het weg. Ook randen en herhalingen verraden een algoritme.
Detectietools kunnen helpen, maar zijn niet waterdicht. Diensten zoals InVID WeVerify, Google Lens en Bing Visual Search bieden snelle checks. AI-detectors geven bovendien soms valse waarschuwingen of missen nieuwe modellen. Een combinatie van bronnen en gezond wantrouwen blijft nodig.
Sommige aanbieders voegen herkomstlabels toe via Content Credentials op basis van de C2PA-standaard. Adobe en partners ondersteunen dit, en ook grote AI-spelers werken aan dergelijke labels. Toch kunnen deze gegevens ontbreken of worden verwijderd bij upload of bewerking. Een label is dus nuttig, maar geen garantie.
Platformen grijpen beperkt in
Grote platforms werken aan labeling en moderatie, maar de uitvoering hapert. X gebruikt Community Notes, maar niet elk misleidend beeld krijgt snel context. Meta labelt soms AI-content op Facebook en Instagram, terwijl Telegram weinig structurele waarschuwingen toont. De praktijk blijft daardoor onvoorspelbaar.
Onder de Europese Digital Services Act (DSA) moeten zeer grote platforms systemische risico’s, zoals desinformatie, beperken. Dat vraagt om tijdige contentwaarschuwingen, betere detectie en meer transparantie. De Europese Commissie onderzoekt op het moment van schrijven naleving door meerdere platforms. Boetes zijn mogelijk bij tekortschietende maatregelen.
Voor nieuwsconsumenten in Nederland en de rest van Europa betekent dit dat nepbeelden alsnog kunnen rondgaan. Overheden en hulpdiensten die via sociale media communiceren, lopen reputatierisico als ze onjuiste beelden delen. Betrouwbare verificatieprocessen worden daardoor belangrijker. Ook lokale media moeten hun beeldcontrole aanscherpen.
Europese AI-verordening gevolgen overheid
De AI Act bevat transparantieplichten voor zogeheten deepfakes: synthetische of gemanipuleerde media die mensen kunnen misleiden. Makers en verspreiders moeten duidelijk maken dat het om gegenereerde inhoud gaat. Voor overheden en publieke instellingen in de EU betekent dit nieuwe werkafspraken. Denk aan labels bij gebruik van synthetisch beeld in voorlichting.
Ook nieuwsorganisaties zullen workflows moeten aanpassen. Van briefing tot publicatie is vastlegging nodig: waar komt beeld vandaan, wie controleerde wat, en hoe wordt het gelabeld. Redacties die dat al doen, werken efficiënter bij incidenten. Dit helpt om fouten en rectificaties te voorkomen.
Privacyregels blijven gelden, ook bij synthetische beelden. Als echte personen herkenbaar zijn of onterecht in een context worden gezet, kan de AVG van toepassing zijn. Dataminimalisatie en zorgvuldige opslag horen daarbij. Bovendien speelt het risico op reputatieschade en laster.
Zo controleer je beelden
Bekijk altijd de bron en de datum van een beeld. Is de herkomst vaag of anoniem, wees dan extra kritisch. Vergroot details zoals handen, borden en teksten. Onlogische lijnen of gekke letters verraden vaak een AI-beeld.
Doe een omgekeerde beeldzoektocht met Google Lens, Bing of TinEye. Zo zie je of en waar het beeld eerder opdook. Controleer ook lokale context: kloppen vlaggen, kleding en geografie met de plaats en het moment. Let op of er onafhankelijke verslaggeving of meerdere invalshoeken zijn.
Zoek naar Content Credentials via de CAI/C2PA-viewer als die beschikbaar is. Gebruik InVID WeVerify voor keyframes en metadata bij video. Geen enkel hulpmiddel is perfect, dus combineer methoden. Twijfel? Deel niet verder en vraag om verificatie bij een betrouwbare redactie.
Snelle check: wie publiceerde het eerst, wat is de bron, wanneer verscheen het, waar is het verifieerbaar en waarom wordt het nu gedeeld?
Deze aanpak helpt om zicht te houden op wat echt is en wat niet. Dat is nodig nu algoritmen sneller beelden maken dan redacties ze kunnen controleren. Met duidelijke labels onder de AI Act en betere moderatie onder de DSA wordt het speelveld helderder. Tot die tijd blijft kritisch kijken onmisbaar.
