Meerderheid Nederlanders kan AI-afbeeldingen niet herkennen

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Meerderheid Nederlanders kan AI-afbeeldingen niet herkennen

Amsterdam, 17 november 2025 09:34 

Een nieuw onderzoek laat zien dat een meerderheid van de Nederlanders AI-afbeeldingen niet goed kan onderscheiden van echte foto’s. De peiling is recent uitgevoerd in Nederland en keek naar herkenning van beelden gemaakt met systemen als Midjourney en DALL·E 3. Dit speelt terwijl online veel synthetische beelden rondgaan, ook in nieuws en campagnes. De uitkomst maakt de vraag urgent hoe platforms en overheid moeten labelen onder de Europese AI‑verordening.

Meeste kijkers twijfelen vaak

De kern is eenvoudig: veel mensen herkennen AI‑beelden niet zeker. Respondenten gaven aan vaak te twijfelen of een foto echt is. Die twijfel ontstaat vooral bij portretten en nieuwsfoto’s. Ook bewerkte echte foto’s maken het onderscheid lastig.

De stijgende kwaliteit van algoritmen vergroot die onzekerheid. Details zoals huid, belichting en schaduwen worden geloofwaardig nagemaakt. Fouten die vroeger opvielen, zoals vreemde handen of tanden, komen minder voor. Daardoor werkt “op het oog” beoordelen steeds minder.

De onderzoekers keken naar herkenning in alledaagse situaties, zoals social media en nieuwsapps. Gebruikers scrollen snel, waardoor context vaak ontbreekt. Zonder bronvermelding of uitleg blijft alleen het beeld over. Juist dan gaat het vaak mis.

“Meer dan de helft van de Nederlanders zegt AI‑foto’s lastig te herkennen.”

Modellen worden realistischer

Beeldgeneratoren zoals OpenAI’s DALL·E 3, Midjourney en Stable Diffusion XL van Stability AI maken steeds scherpere plaatjes. Deze modellen zetten een tekstomschrijving om in een nieuwe afbeelding. Hoe beter de dataset en het model, hoe echter het resultaat oogt. Dat maakt misleiding eenvoudiger en controle moeilijker.

Ook grote techbedrijven tillen de lat. Google DeepMind werkt met SynthID aan watermerken die je niet ziet, maar wel kunt detecteren. Adobe voert “Content Credentials” in, een soort digitaal paspoort op basis van de C2PA‑standaard. Zulke technieken moeten laten zien hoe en met welk systeem een beeld is gemaakt.

Het probleem is dat deze sporen niet altijd blijven. Bij knippen, comprimeren of opnieuw uploaden verdwijnen metadata soms. Onzichtbare watermerken kunnen verzwakken bij zware bewerking. Hierdoor is één technische oplossing niet genoeg.

AI‑verordening vraagt transparantie

De Europese AI‑verordening (AI Act) verplicht, op het moment van schrijven, tot transparantie bij “synthetische media”. Dat geldt vooral voor deepfakes en beelden die lijken op echt nieuws. De maker of verspreider moet duidelijk maken dat het om door een model gegenereerde content gaat. Uitzonderingen zijn beperkt en vragen alsnog om uitleg.

Voor overheden en publieke instellingen in Nederland zijn de gevolgen direct. Wie generatieve systemen inzet in communicatie, moet labeling en broninformatie regelen. Dat past naast de AVG, die dataminimalisatie en veilige opslag eist. Platforms vallen bovendien onder de Digital Services Act, die strenger optreedt tegen misleiding.

In de praktijk betekent dit: vaste procedures voor content‑provenance en archivering. Denk aan C2PA‑metadata bij officiële beelden en logboeken van gebruikte tools. Zonder zulke sporen is achteraf verifiëren moeilijk. Dat vergroot risico’s bij crises en verkiezingen.

Detectie blijft onbetrouwbaar

Detectietools die “kijken” of een beeld nep is, werken nog beperkt. Ze geven vaak valse meldingen, zeker na bewerkingen of screenshotten. Een kleine crop kan de uitkomst al veranderen. Daardoor zijn ze ongeschikt als enige bewijsbron.

Toezichthouders en onderzoekers adviseren een combinatie van maatregelen. Provenance (waar komt het beeld vandaan?) weegt zwaarder dan alleen patroonherkenning. Labelen bij de bron, plus controle in de keten, verhoogt de kans op juiste duiding. Dit sluit aan bij de lijn van Europese beleidsmakers.

Ook newsroom‑workflows moeten mee. Redacties kunnen vaste checks gebruiken, zoals reverse image search of het lezen van metadata. Tools van Truepic, Adobe en Google helpen, maar vragen training. Zonder scholing levert extra tooling weinig op.

Mediavaardigheid is cruciaal

Onderwijs en bibliotheken spelen een sleutelrol. Mediageletterdheid betekent hier: beelden in context plaatsen, herkomst checken en twijfelen waar nodig. Netwerk Mediawijsheid en Beeld & Geluid bieden lesmateriaal dat scholen direct kunnen gebruiken. Gemeenten kunnen dit koppelen aan digitale loketten en buurtwerk.

Ook bedrijven hebben werk te doen. Interne richtlijnen voor AI‑gebruik verminderen reputatierisico’s. Duidelijk labelen van marketingbeelden voorkomt misleiding. En het helpt klanten vertrouwen houden in officiële kanalen.

De Autoriteit Persoonsgegevens wijst op het belang van de AVG bij trainingsdata en detectie. Beelden kunnen persoonsgegevens bevatten, zoals gezichten. Verwerking moet doelmatig en minimaal zijn. Versleuteling en beperkte bewaartermijnen zijn daarbij standaard.

Wat helpt in praktijk

Voor gebruikers geldt een simpel stappenplan. Controleer de bron en zoek het beeld terug via Google of TinEye. Let op content credentials of watermerken als die worden getoond. Kijk ook naar details zoals onlogische reflecties of onmogelijke handen, maar vertrouw daar niet alleen op.

Instellingen kunnen standaard labels inzetten bij elke inzet van generatieve modellen. Koppel dat aan C2PA‑metadata en bewaar logs van gebruikte tools, zoals Midjourney of DALL·E 3. Dat maakt interne audits en externe verantwoording eenvoudiger. Het verkleint ook juridische risico’s onder de AI‑verordening.

Platforms en uitgevers doen er goed aan om uitleg bij beelden te geven. Een korte noot over herkomst voorkomt speculatie. Combineer dit met redactionele checks en duidelijke klachtenprocedures. Zo blijft vertrouwen in digitale kanalen overeind.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>