In Haarlem vraagt de gemeentepolitiek om ingrijpen tegen een online stemhulp die is gemaakt met kunstmatige intelligentie. Raadsleden noemen het hulpmiddel “democratie ondermijnend” en waarschuwen kiezers het niet te gebruiken. De tool lijkt partijstandpunten onjuist weer te geven en kan zich verwarrend presenteren als iets officieels. De kwestie raakt ook aan de Europese AI-verordening en de AVG, met gevolgen voor overheid en kiezers.
Haarlem waarschuwt kiezers
Meerdere fracties in de Haarlemse gemeenteraad uiten zorgen over een niet-officiële AI-stemhulp voor de lokale verkiezingen. Zij stellen dat het systeem verkeerde of te stellige adviezen geeft. Ook zou onduidelijk zijn wie de maker is en welke methode wordt gebruikt.
De politiek vraagt het college om actie. Denk aan een publiekswaarschuwing en contact met de beheerder van de website. Zo nodig moeten ook de hoster en domeinbeheerder worden benaderd om misleiding te voorkomen.
De oproep is vooral bedoeld om kiezers te beschermen tegen onjuiste informatie. Rond verkiezingen is de kans op verwarring groter. Een tool die lijkt op een bekende stemhulp kan daardoor disproportionele invloed krijgen.
Uitkomsten niet controleerbaar
De stemhulp werkt met een groot taalmodel, een type AI dat tekst samenvat en nieuwe tekst maakt. Zo’n model kan ‘hallucineren’: het verzint soms dingen die niet kloppen. Zonder transparantie over bronnen en prompts is dat moeilijk te zien voor gebruikers.
Bij een betrouwbare stemhulp hoort een duidelijke methode. Denk aan vastgestelde stellingen, controle door onderzoekers en instemming van partijen. Bij deze AI-tool ontbreken die bouwstenen of zijn ze niet vindbaar.
Ook de selectie van documenten telt mee. Als partijprogramma’s onvolledig zijn ingelezen of slecht worden samengevat, ontstaan scheve adviezen. Kleine lokale partijen lopen dan extra risico om verkeerd te worden weergegeven.
Europese regels raken dit
De Europese AI-verordening (AI Act) stelt eisen aan systemen die het publieke debat en verkiezingen kunnen beïnvloeden. Afhankelijk van doel en inzet kan zo’n stemhulp in een hoog-risicocategorie vallen. Dan gelden strenge plichten voor transparantie, risicobeheer en documentatie.
Onder de AI-verordening kunnen AI-systemen die bedoeld zijn om kiezersgedrag te beïnvloeden als hoog risico worden aangemerkt. Zij moeten hun werking uitleggen, datasets beheren en maatregelen nemen tegen bias.
De AVG is ook relevant, omdat politieke opvattingen bijzondere persoonsgegevens zijn. Een stemhulp die antwoorden opslaat, heeft meestal uitdrukkelijke toestemming nodig. Daarnaast gelden dataminimalisatie, beveiliging en een heldere privacyverklaring.
Als de tool via een hostingdienst wordt aangeboden, geldt de Europese Digital Services Act voor meld- en actieprocedures. Een beheerder moet meldingen over misleiding of nep-officialiteit serieus behandelen. Voor overheden schetst dit het pad: documenteren, melden en transparant communiceren met burgers.
Mogelijke stappen gemeente
De gemeente kan kiezers actief wijzen op betrouwbare alternatieven en op de risico’s van niet-transparante AI-tools. Een duidelijke waarschuwing op gemeentelijke kanalen helpt verwarring te beperken. Vooral als een site qua naam of vormgeving op iets officieels lijkt.
Juridisch zijn er opties als een logo of naam van de gemeente wordt misbruikt. Ook kan de Autoriteit Persoonsgegevens worden benaderd bij vermoedens van AVG-overtredingen. De Autoriteit Consument & Markt kan relevant zijn bij misleidende handelspraktijken richting burgers.
Daarnaast kan het college de hoster of domeinbeheerder verzoeken om aanpassingen of verwijdering, als aanwijsbare misleiding plaatsvindt. Transparantie-eisen uit de AI Act bieden handvatten om meer openheid te vragen van de maker. Op het moment van schrijven is er nog geen definitieve maatregel gemeld.
Gebruik bewezen stemhulpen
Bekende Nederlandse stemhulpen zoals StemWijzer (ProDemos) en Kieskompas publiceren hun methode en betrekken politieke partijen. Hun stellingen zijn controleerbaar en herleidbaar. Dat maakt uitkomsten beter toetsbaar voor kiezers en media.
Praktische tips helpen gebruikers om risico’s te beperken. Controleer altijd wie de aanbieder is, lees de methode en bekijk of antwoorden worden opgeslagen. Vergelijk het advies met meerdere bronnen en raadpleeg het eigen verkiezingsprogramma van partijen.
Let ook op privacy. Een betrouwbare stemhulp vraagt niet meer gegevens dan nodig en bewaart antwoorden kort of helemaal niet. Een duidelijke privacyverklaring hoort zichtbaar en begrijpelijk te zijn.
Hoe zo’n tool werkt
AI-stemhulpen lezen vaak partijprogramma’s en nieuws in, en maken daarvan samenvattingen. Een taalmodel ordent die teksten en koppelt ze aan stellingen. Op basis van de antwoorden van de gebruiker berekent het systeem een match.
De kwaliteit hangt af van de dataset, de prompts en de evaluatie door mensen. Zonder bronvermelding en methodebeschrijving is het eindadvies niet te controleren. Kleine fouten in samenvattingen geven al snel verkeerde uitkomsten.
Transparantie en auditbaarheid zijn daarom cruciaal, zeker in verkiezingstijd. De AI-verordening en de AVG zetten die lijn juridisch kracht bij. Voor kiezers blijft de vuistregel: kies alleen tools die duidelijk en toetsbaar werken.
