Beelden van de Israëlische premier Benjamin Netanyahu die uit het puin wordt gehaald, zijn de afgelopen dagen massaal gedeeld op sociale media. De foto’s en video’s blijken niet echt, maar zijn gemaakt met kunstmatige intelligentie. Ze doken op op X, Telegram en andere platforms, en werden duizenden keren opnieuw geplaatst. De misleidende posts spelen in op het conflict en het politieke debat rond Israël.
Beelden zijn gefabriceerd
Er is geen berichtgeving van betrouwbare nieuwsredacties of hulpdiensten die het incident bevestigen. Omgekeerd beeldzoeken levert geen originele bron op buiten recente posts. Dat wijst op synthetische herkomst, niet op een vastgelegd nieuwsfeit. De visuele inconsistenties in de beelden versterken die conclusie.
In meerdere frames ontbreken realistische details, zoals correcte lijnen in helmen en uniformen. Tekst en logo’s op kleding zijn vervormd of onleesbaar. Lichaamsdelen lijken soms samengevoegd of onnatuurlijk verlicht. Dit zijn bekende sporen van generatieve systemen.
De herkomst en het specifieke programma zijn op het moment van schrijven niet vastgesteld. Dat is gebruikelijk bij virale deepfakes, die snel en anoniem worden verspreid. Zonder metadata of herleidbare bron is verificatie extra lastig. Juist daarom zijn basiscontroles cruciaal.
Sporen van generatieve beelden
Generatieve AI gebruikt een getraind model om beelden te maken op basis van tekst. Zulke systemen hebben moeite met fijne details, zoals handen, badges en schaduwen. Daardoor ontstaan visuele fouten die voor het oog onlogisch zijn. Ook randen, haar en achtergrondobjecten verraden vaak het algoritme.
Let op vervormde of herhaalde patronen in puin en stof. Controleer onleesbare naamstickers of spiegelschrift in uniformen. Bekijk lichtval: als schaduwen niet kloppen met de omgeving, is dat een waarschuwingssignaal. Ontbrekende of ‘platte’ diepte kan eveneens duiden op synthetische output.
Snelle checks helpen. Doe een omgekeerd beeldzoekverzoek en kijk of erkende media hetzelfde melden. Controleer of recente posts dezelfde scène opeisen met verschillende verhalen. Zulke patronen wijzen op een gefabriceerde narratief.
Een deepfake is media die door een algoritme is gemaakt of aangepast om echt te lijken.
Onbekend model, wel mogelijk
Het is niet bekend welke tool deze beelden maakte. Populaire generators zijn Midjourney, DALL·E van OpenAI en Stable Diffusion van Stability AI. Al deze modellen kunnen realistische scènes bouwen op basis van korte tekstprompts. Kleine fouten blijven vaak zichtbaar, zeker in complexe reddingssituaties.
Midjourney staat bekend om fotorealistische texturen, maar kan teksten en emblemen vervormen. Stable Diffusion is open-source en veelgebruikt voor snelle variaties. DALL·E richt zich op creatieve controle, met vergelijkbare beperkingen bij details. Deze typische artefacten keren terug in de gedeelde Netanyahu-beelden.
Sommige makers verwijderen sporen zoals watermerken of metadata. Daardoor wordt bronherleiding moeilijk. Open standaarden zoals C2PA-contentcredentials kunnen helpen, maar zijn nog niet overal toegepast. Zonder zulke labels blijft menselijke verificatie nodig.
Risico’s voor publiek debat
Misleidende oorlogsscènes beïnvloeden emotie en oordeel. Ze kunnen hulpdiensten, journalisten en burgers afleiden met valse signalen. In verkiezingstijd kunnen deepfakes ook politieke schade aanrichten. Dat maakt snelle en zorgvuldige verificatie essentieel.
Grote platforms als X (X Corp.), Meta’s Facebook en Instagram, en Telegram staan onder druk om deze content te beperken. Hun moderatiebeleid verschilt per dienst. Labeling en verwijdering gaan niet altijd snel genoeg. Daardoor blijft de eerste indruk hangen, zelfs na correctie.
Voor Nederlandse en Europese gebruikers is dit extra relevant door de informatiestromen rond veiligheid en buitenlandbeleid. Publieke instellingen moeten desinformatie snel kunnen duiden. Mediawijsheid in onderwijs en overheid helpt daarbij. Heldere waarschuwingen bij synthetische beelden zijn een praktisch middel.
Europese regels voor deepfakes
De Europese AI-verordening (AI Act) introduceert transparantieplichten voor synthetische media. Aanbieders moeten deepfakes duidelijk labelen, met beperkte uitzonderingen, op het moment van schrijven in uitrol naar 2025-2026. Dat geeft burgers en media houvast. Het sluit aan bij de AVG, die persoonsgegevens bij gebruik van trainingsdata beschermt.
Daarnaast verplicht de Digital Services Act grote platforms om risico’s van desinformatie te beperken. Dat omvat detectie, labelen en aanpassing van algoritmen. Voor overheden en publieke omroepen in Nederland ligt hier een taak in inkoop en publicatie. Gebruik van C2PA-contentcredentials kan de keten van herkomst zichtbaar maken.
Toezichthouders in de EU vragen om duidelijke meldingen bij politieke content. Vooral rond verkiezingen weegt de plicht om misleiding te voorkomen. Overtredingen kunnen tot boetes leiden. Transparantie helpt ook betrouwbare verslaggeving sneller door te laten dringen.
Zo controleer je beelden
Zoek eerst naar primaire bronnen: hulpdiensten, persbureaus, erkende redacties. Controleer locatie en tijd met weer- of kaartbeelden als dat kan. Let op inconsistenties in licht, handen en tekst op uniformen. Vraag je af wie baat heeft bij de verspreiding.
Gebruik omgekeerd beeldzoeken bij Google of Yandex om varianten te vinden. Raadpleeg ook video-stills voor betere matches. Check of contentcredentials aanwezig zijn via Content Credentials Verify. Ontbreken ze, dan is extra voorzichtigheid nodig.
AI-detectors kunnen helpen, maar zijn niet sluitend. Combineer daarom meerdere signalen vóór je deelt. Geef in reacties context als je misleiding vermoedt. Zo rem je de verspreiding van valse beelden in je netwerk.
