In Nederland vragen steeds meer kiezers aan AI-chatbots om stemadvies. Korte praktijktests met ChatGPT (OpenAI), Google Gemini, Microsoft Copilot en Claude (Anthropic) laten deze week veel fouten en verouderde informatie zien. Dat vergroot de kans op misleiding rond verkiezingen en publieke debatten. De kwestie raakt direct aan de Europese AI-verordening (AI Act) en de AVG, die transparantie en zorgvuldige gegevensverwerking eisen.
AI-stemadvies klopt vaak niet
De geteste chatbots geven uiteenlopende en soms tegenstrijdige antwoorden op dezelfde politieke vraag. Ze verwarren standpunten van partijen, of koppelen beleidsvoorstellen aan de verkeerde bron. Ook ontbreken vaak duidelijke verwijzingen naar programma’s, moties of stemmingen. Daardoor is het lastig te controleren waarop het advies is gebaseerd.
Chatbots zijn niet ontworpen als kieshulpen en hebben geen vaste methodiek of toetsing. Waar officiële stemhulpen elke stelling vooraf met partijen afstemmen, improviseren modellen hun antwoord op basis van patronen in trainingsdata. Dat levert plausibele maar niet altijd juiste conclusies op. Ook nuance of uitzonderingen verdwijnen vaak in algemene formuleringen.
De uitkomsten verschillen bovendien per formulering en context. Kleine wijzigingen in de vraag leiden tot nieuwe, soms tegengestelde adviezen. Voor kiezers oogt dat flexibel, maar het ondermijnt voorspelbaarheid en betrouwbaarheid. Een consistent, controleerbaar kader ontbreekt.
Een “hallucinatie” is wanneer een AI-systeem overtuigend maar onjuist klinkende informatie verzint en presenteert als feit.
Verouderde en vage bronnen
Veel modellen werken met trainingsdata die deels ouder zijn dan de laatste verkiezingen of partijprogramma’s. Het systeem weet niet altijd wat recent is, en mengt oude en nieuwe standpunten door elkaar. Partijwisselingen, coalitieakkoorden en nieuwe initiatieven raken zo uit zicht. Dat geeft een vertekend beeld van actuele politiek.
De chatbots melden zelden precies welke stukken zijn gebruikt. Zonder bronvermelding is verificatie voor de gebruiker vrijwel onmogelijk. Soms lijken citaten op officiële teksten, maar het blijft onduidelijk of ze echt uit een programma of media-interview komen. Transparantie over herkomst is daarmee onvoldoende.
Ook inhoudelijke accenten kunnen verschuiven door vertaling of samenvatting. Een nuance in een partijstandpunt raakt verloren in een korte paraphrase. Bij complexe dossiers, zoals klimaat, migratie of zorg, maakt dat veel uit. Het risico is dat schijnzekerheid ontstaat op basis van incomplete data.
Officiële stemhulpen betrouwbaarder
Nederland kent met StemWijzer (ProDemos) en Kieskompas gevestigde, transparante kieshulpen. Zij formuleren stellingen, vragen partijen om antwoorden en publiceren de methodiek. Gebruikers zien hoe de matching tot stand komt en welke bronnen zijn gebruikt. Dat geeft controleerbaarheid en herhaalbaarheid.
Deze hulpmiddelen zijn niet foutloos, maar ze hanteren een vast proces en maken keuzes expliciet. Dat is essentieel in aanloop naar verkiezingen. AI-chatbots hebben die waarborgen niet en kunnen geen methodologisch verantwoord stemadvies geven. De uitkomst is eerder een indruk dan een toetsbaar resultaat.
Voor wie toch AI wil raadplegen, geldt: gebruik chatbots hooguit als startpunt en vraag altijd om bronnen. Leg adviezen naast officiële programma’s en stemmingen in de Kamer. En vergelijk met een erkende kieshulp voor een systematische check. Zo verklein je de kans op misleiding.
Europese regels dwingen duidelijkheid
De Europese AI-verordening is op het moment van schrijven van kracht met gefaseerde invoering. Generatieve systemen krijgen transparantie- en risicobeperkingsplichten, zoals duidelijkheid over AI-gebruik en maatregelen tegen misleiding. Praktijken die gedrag manipuleren op schadelijke wijze worden beperkt. Dit raakt direct aan politieke informatie en verkiezingscontext.
Daarnaast verplicht de Digital Services Act grote platforms om risico’s rond verkiezingen actief te beperken. Denk aan betere bronvermelding, moderatie van misinformatie en labeling van politieke advertenties. Aanbieders als OpenAI, Google en Microsoft publiceren extra veiligheidsmaatregelen in verkiezingsperiodes. Maar de effectiviteit daarvan verschilt per product en land.
In Nederland kunnen toezichthouders en instellingen deze regels benutten om transparantie te eisen. Overheden en mediaredacties blijven verantwoordelijk voor zorgvuldige informatievoorziening. Zonder heldere herkomst en methode horen AI-adviezen niet in officiële stemwijzers of publieke dienstverlening thuis. Dat voorkomt onbedoelde legitimatie van onzekere systemen.
Let op je privacy
Politieke opvattingen vallen onder gevoelige persoonsgegevens in de AVG. Wie in een chatbot persoonlijke voorkeuren deelt, kan die data laten verwerken door een commercieel platform. Dat vereist een stevige rechtvaardiging, zoals expliciete toestemming, en passende beveiliging. Gebruikers hebben hier vaak weinig zicht op.
Controleer daarom de datainstellingen van de gekozen AI-dienst. Schakel waar mogelijk gepersonaliseerde training op je gesprekken uit en verwijder chatgeschiedenis. Deel geen volledige politieke profielen of identificeerbare informatie. En gebruik publieke of gedeelde apparaten niet voor persoonlijke politieke vragen.
Voor publieke instellingen, zoals gemeenten en scholen, is extra zorg geboden. Het verwerken van politieke voorkeuren via externe AI-diensten kan snel in strijd zijn met de AVG. Dataminimalisatie en versleuteling zijn dan het minimum. Vaak is het verstandiger om naar erkende, lokaal gehoste oplossingen te kijken.
Praktische tips voor kiezers
Vraag AI-systemen altijd om concrete bronnen en controleer die. Vergelijk de antwoorden met officiële partijprogramma’s en stemmingen in de Tweede Kamer. Gebruik een erkende kieshulp voor de uiteindelijke matching. En wees alert op stellige beweringen zonder citeerbare onderbouwing.
Let op signaalwoorden als “waarschijnlijk” of “naar verwachting”; die duiden op gokwerk, niet op feitelijke zekerheid. Stel vervolgvragen en test of het antwoord consistent blijft bij herformulering. Grote afwijkingen zijn een waarschuwingssignaal. Sla twijfelachtige claims over of check ze bij meerdere, betrouwbare bronnen.
Tot slot: behandel AI-adviezen als een gesprek met een handige maar onzekere assistent. De systemen kunnen samenvatten en verwijzen, maar nemen geen verantwoordelijkheid. De keuze is aan de kiezer, op basis van controleerbare informatie. Dat blijft de veiligste route naar een weloverwogen stem.
