Toezichthouder waarschuwt: AI-chatbots geven mogelijk vertekend stemadvies

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Toezichthouder waarschuwt: AI-chatbots geven mogelijk vertekend stemadvies

Amsterdam, 21 oktober 2025 07:32 

De Autoriteit Persoonsgegevens (AP) waarschuwt dat AI‑chatbots vertekend stemadvies kunnen geven. Systemen als ChatGPT (OpenAI), Google Gemini en Microsoft Copilot beantwoorden politieke vragen zonder transparante methode. Dat vergroot het risico op sturing en misinformatie rond verkiezingen in Nederland en Europa. De kwestie raakt aan de Europese AI‑verordening en heeft gevolgen voor overheid en platforms tijdens verkiezingen.

Chatbots sturen stemkeuze

Generatieve modellen maken teksten op basis van patronen in trainingsdata. Ze zijn niet ontworpen als neutrale kieshulp en kunnen antwoorden verzinnen. De toon is vaak zeker, terwijl de onderbouwing ontbreekt. Zo ontstaat schijn van objectiviteit die kiezers kan beïnvloeden.

De formulering van een vraag stuurt het resultaat sterk. Kleine verschillen in woorden of context leveren andere adviezen op. Ook sessie‑geheugen of personalisatie kan een antwoord kleuren. Daardoor is herhaalbaarheid laag en controle lastig.

Bedrijven bouwen wel veiligheidsfilters in voor politieke content, maar die zijn niet uniform en omzeilbaar. Antwoorden verschillen per model, tijdstip en prompt. Er is geen inzicht in bronnen of weging, anders dan bij Nederlandse stemhulpen. Dat maakt kwaliteitscontrole en correctie moeilijk.

Niet bedoeld als kieshulp

ChatGPT, Gemini en Copilot zijn algemene gesprekssystemen, geen verkiezingstools. Ze missen een expliciete methode om partijen objectief te vergelijken. Kennis is vaak niet actueel of onvolledig. Daardoor kunnen ze partijen verkeerd weergeven of standpunten overslaan.

Officiële Nederlandse stemhulpen, zoals StemWijzer (ProDemos) en Kieskompas, werken met vaste stellingen en openbare methodes. Partijen leveren daar doorgaans zelf input aan. Gebruikers zien hoe de matching tot stand komt. Dat ontbreekt bij generatieve chatbots.

De AP raadt aan om politieke antwoorden in chatbots altijd te voorzien van duidelijke disclaimers. Verwijs kiezers naar primaire bronnen, partijprogramma’s en erkende stemhulpen. Beperk chatbots tot feitelijke, verifieerbare informatie met bronvermelding. Schakel generatieve adviezen voor stemkeuze bij voorkeur uit.

Privacy rond politieke data

Wanneer een gebruiker politieke voorkeuren of gevoelige standpunten deelt, verwerkt een chatbot bijzondere persoonsgegevens. Opslag of analyse daarvan vereist een geldige grondslag en strikte waarborgen. Dat geldt extra als data de EU verlaten. Gebruikers weten vaak niet hoe lang data bewaard blijven en met wie die worden gedeeld.

OpenAI, Google en Microsoft bieden instellingen om chatgeschiedenis uit te zetten of zakelijk gebruik te scheiden. Die opties beschermen niet automatisch tegen alle verwerking. De AP benadrukt dat dataminimalisatie en versleuteling nodig zijn. Overheden moeten extra terughoudend zijn en geen politieke profilering faciliteren.

Onder de AVG vallen politieke opvattingen onder ‘bijzondere persoonsgegevens’. Verwerking daarvan is in principe verboden, tenzij een specifieke uitzondering of expliciete toestemming geldt.

Voor publieke instellingen gelden op het moment van schrijven extra plichten. Denk aan DPIA’s (risicoanalyses), heldere informatie aan burgers en passende beveiliging. Een generieke chatbot inzetten voor kiesadvies is daarmee moeilijk te rechtvaardigen. Juridische en ethische risico’s zijn hoog.

Nieuwe regels dwingen transparantie

De Europese AI‑verordening (AI Act) legt aanbieders van algemene AI‑systemen transparantie‑eisen op. Zij moeten onder meer beperkingen, bekende risico’s en geschikte gebruikssituaties toelichten. Deze verplichtingen gaan gefaseerd gelden in 2025 en 2026, op het moment van schrijven. Dat moet misleidende toepassingen, zoals pseudo‑kieshulpen, ontmoedigen.

De Digital Services Act verplicht grote platforms om verkiezingsrisico’s te beperken. Bedrijven als Google en Microsoft moeten maatregelen nemen tegen desinformatie en manipulatie. Dat kan inhouden: labelen van AI‑antwoorden, strengere moderatie en beperkingen rond politieke prompts. Onafhankelijke audits en rapportages horen daar ook bij.

In Nederland houden de AP en de Autoriteit Consument & Markt toezicht op privacy en oneerlijke handelspraktijken. De Kiesraad geeft duiding bij betrouwbare verkiezingsinformatie. Samenwerking rond verkiezingsperioden is nodig om misbruik te voorkomen. Handhaving moet duidelijk maken waar de grens ligt.

Praktische tips voor kiezers

Gebruik erkende stemhulpen zoals StemWijzer en Kieskompas voor een eerste vergelijking. Lees partijprogramma’s en check standpunten via officiële websites. Vergelijk meerdere bronnen om een evenwichtig beeld te krijgen. Wees alert op sterke claims zonder bron.

Stel een chatbot alleen feitelijke vragen en vraag om actuele bronnen en datum. Deel geen persoonlijke of politieke data en zet chatgeschiedenis uit waar mogelijk. Behandel elk AI‑antwoord als een suggestie, niet als advies. Controleer belangrijke informatie bij primaire bronnen.

Organisaties die chatbots aanbieden kunnen politieke prompts tijdelijk beperken rond verkiezingen. Plaats duidelijke waarschuwingen en verwijs naar betrouwbare informatie. Log en evalueer politieke interacties om risico’s te verminderen. Voer een risicoanalyse uit en documenteer keuzes voor toezicht en audit.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>