Bijna de helft van Nederlanders wantrouwt AI in reclames: wat betekent dat?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Bijna de helft van Nederlanders wantrouwt AI in reclames: wat betekent dat?

Amsterdam, 1 december 2025 11:37 

Bijna de helft van de Nederlanders staat op het moment van schrijven negatief tegenover kunstmatige intelligentie in reclames, blijkt uit nieuw onderzoek. De peiling gaat over het gebruik van generatieve AI door adverteerders op tv, online en sociale media in Nederland. Respondenten noemen vooral privacy, misleiding en verlies van echtheid als reden. De uitslag weegt mee nu de Europese AI-verordening en de AVG strengere regels opleggen aan algoritmen in marketing en publieke communicatie.

Nederlanders wantrouwen AI-reclames

Het onderzoek laat zien dat een groot deel van het publiek AI in reclame niet ziet zitten. Een kleinere groep is neutraal of positief, afhankelijk van de context. Vooral synthetische stemmen, volledig gegenereerde beelden en hyperpersoonlijke boodschappen roepen weerstand op. Mensen willen weten of zij met een echt persoon of met een systeem praten.

Generatieve AI is software die zelf tekst, beeld of audio maakt op basis van voorbeelden. In reclame betekent dit bijvoorbeeld scripts uit een taalmodel of beelden uit een beeldgenerator. Denk aan tools zoals GPT-4o van OpenAI, Gemini van Google of Adobe Firefly. Die tools verlagen de kosten, maar maken herkomst en echtheid minder duidelijk.

Merken vrezen reputatieschade als publiek AI-gemaakte content als misleidend ervaart. De weerstand is groter bij gevoelige onderwerpen zoals zorg, financiƫn en politiek. Daar is vertrouwen belangrijker dan snelheid of lage productiekosten. Dat zet druk op bureaus om transparant te zijn en menselijk toezicht te houden.

ā€œBijna de helft van de Nederlanders wil geen AI in reclames.ā€

Privacy en misleiding grootste zorgen

Veel mensen zijn bang dat data zonder duidelijke toestemming worden gebruikt voor reclame op maat. Profilering is het automatisch indelen van mensen op basis van gedrag en kenmerken. Dat kan tot ongewenste sturing en uitsluiting leiden. Ook het gevoel ā€œde computer kijkt meeā€ speelt mee.

Misleiding klinkt door bij synthetische video’s en stemmen, ook wel deepfakes genoemd. Een deepfake is nepbeeld of -audio die echt lijkt, gemaakt met AI. In reclame kan dat grenzen overschrijden als een niet-bestaande getuigenis echt oogt. Duidelijke labeling helpt, maar neemt de zorg niet helemaal weg.

Emotieherkenning wordt extra gevoelig gevonden. Dat is het meten van emoties via gezichten of stem. In winkels of buitenreclame zou dit mensen kunnen sturen zonder dat zij dat zien. Dat schuurt met autonomie en met de AVG-vereisten voor dataminimalisatie.

Transparantie onder AI-verordening

De Europese AI-verordening verplicht duidelijke waarschuwingen bij gemanipuleerde of synthetische media. Wie AI-beelden of -audio inzet, moet aangeven dat die content niet echt is. Dit geldt naast bestaande plichten in de AVG, zoals een geldige grondslag, informatieplicht en beveiliging. Voor overheden gelden daarbij extra zorgplichten in publieke communicatie.

Reclame valt meestal niet in de hoog-risicoklasse van de AI-verordening. Maar systemen die gedrag op oneerlijke wijze manipuleren en schade veroorzaken, worden verboden. Emotieherkenning in werk en onderwijs wordt sterk beperkt. Adverteerders moeten daarom toetsen of hun AI-toepassing in een risicocategorie valt.

De Digital Services Act legt grote platforms zoals Google en Meta extra advertentietransparantie op. Gebruikers moeten kunnen zien waarom zij een advertentie krijgen. In Nederland houden de Autoriteit Persoonsgegevens (AVG) en de Autoriteit Consument & Markt toezicht, op het moment van schrijven. Dit zet een norm voor labeling, logging en klachtenafhandeling.

Bedrijven testen generatieve modellen

Adverteerders en bureaus experimenteren met generatieve AI om teksten, beelden en muziek te maken. OpenAI’s GPT-4o schrijft copy en scripts. Google’s Gemini en Adobe Firefly leveren beelden en varianten voor sociale posts. Zulke systemen verkorten de productietijd en maken A/B-tests makkelijker.

Grote advertentieplatforms bouwen AI in hun producten. Google Ads biedt Performance Max, dat met algoritmen doelgroepen en creaties combineert. Meta heeft Advantage+ Creative voor varianten in beeld en tekst. Ook spelers als Amazon Ads en The Trade Desk gebruiken datamodellen voor targeting en inkoop.

Beveiliging en herkomst krijgen meer aandacht. Watermerken en contentlabels via standaarden zoals C2PA/Content Credentials worden breder toegepast. Platforms voeren meldingen in bij ā€œsynthetische of bewerkte mediaā€. Toch blijft menselijke controle nodig om fouten, bias en juridische risico’s te voorkomen.

Vraag naar keuze en controle

Gebruikers willen zelf kiezen hoeveel personalisatie zij accepteren. Een duidelijke opt-out voor gepersonaliseerde advertenties is essentieel onder de AVG. Contextuele advertenties, die geen persoonlijke data gebruiken, bieden een alternatief. Dat past bij dataminimalisatie en verlaagt het risico op profilering.

Heldere labeling verhoogt acceptatie en vermindert verwarring. Een kort label zoals ā€œgemaakt met AIā€ in beeld of ondertitel is begrijpelijk. Voeg een link toe met uitleg over gebruikte systemen en data. Gebruik eenvoudige taal op B1-niveau, ook in disclaimers.

Voor publieke campagnes van overheden en zorginstellingen ligt de lat nog hoger. Transparantie en toegankelijkheid zijn dan randvoorwaardelijk. De Europese AI-verordening gevolgen overheid zijn concreet: label deepfakes, documenteer risico’s en houd menselijk toezicht. Zo blijft de boodschap betrouwbaar en wettelijk houdbaar.

Gevolgen voor Nederlandse markt

Omroepen, publishers en bureaus zullen hun workflow moeten aanpassen. Stel interne richtlijnen op voor AI-gebruik, inclusief toetsing aan AVG en AI-verordening. Leg vast wanneer AI wel en niet is toegestaan, en hoe labeling werkt. Train teams in ethiek, transparantie en beveiliging.

Adverteerders doen er goed aan een dataminimalisatie-aanpak te kiezen. Verzamel alleen wat nodig is voor een duidelijk doel. Versleutel persoonsgegevens en beperk toegang. Documenteer keuzes, zodat audits en toezichthouders inzicht krijgen.

Voor merken kan AI waardevol zijn, maar alleen met duidelijke grenzen. Begin klein, test transparantieboodschappen en meet vertrouwenseffecten. Combineer algoritmen met menselijke redactie en factchecking. Zo sluit innovatie beter aan op de Nederlandse verwachtingen rond privacy en echtheid.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>