Waarom politieke partijen AI nog niet vertrouwen als bron

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Waarom politieke partijen AI nog niet vertrouwen als bron

Amsterdam, 13 oktober 2025 21:53 

Nederlandse politieke partijen blijven op dit moment voorzichtig met kunstmatige intelligentie. Ze testen chatbots zoals ChatGPT van OpenAI en Gemini van Google, maar zetten ze zelden in voor publieke standpunten of Kamerstukken. Reden is de twijfel aan betrouwbaarheid en het risico op fouten. Ook de AVG en de Europese AI-verordening spelen mee, met directe gevolgen voor campagnes en communicatie.

Partijen blijven voorzichtig met AI

Partijkantoren gebruiken AI vooral voor simpele taken, zoals een eerste opzet of het controleren van taal. Complexe stukken, zoals amendementen of persberichten, schrijven medewerkers en inhoudelijke experts zelf. Partijen vrezen reputatieschade als een model onjuiste feiten verzint of bronnen verkeerd weergeeft. Daardoor blijft de inzet klein en gecontroleerd.

Bekende tools als ChatGPT, Microsoft Copilot en Google Gemini worden intern getest, vaak met afgeschermde accounts. Sommige afdelingen kiezen voor open modellen zoals Llama van Meta, die lokaal kunnen draaien. Zo beperken ze dat gevoelige gegevens naar externe servers gaan. Tegelijk missen die lokale modellen soms functies of kwaliteit.

Kleinere partijen zien wel kansen om tijd te besparen, zoals bij het samenvatten van documenten. Toch geven ze aan dat menselijk overzicht nodig blijft. Ze willen geen politieke lijn laten afhangen van een algoritme dat niet transparant uitlegt hoe het tot een antwoord komt. Vertrouwen en controle wegen zwaarder dan snelheid.

Onzekerheid over betrouwbaarheid

Een veelgehoorde zorg is dat generatieve systemen ā€œhallucinerenā€: ze presenteren onjuiste informatie alsof die klopt. Dat is een probleem bij feiten, cijfers en juridische termen. Fouten zijn lastig te zien als je de bron niet kent of als het systeem die bron verzint. Daardoor blijft elke AI-tekst een concept, geen eindproduct.

Deepfakes en synthetische audio versterken de aarzeling. Partijen vrezen manipulatie in campagnetijd en extra werk voor factcheckers. Publicatie van AI-beeld of -audio vraagt daarom om duidelijke labels en uitleg. Zonder die context kan publiek vertrouwen snel dalen.

Generatieve AI is software die zelfstandig tekst, beeld of audio maakt op basis van voorbeelden uit grote dataverzamelingen.

Politieke organisaties geven aan dat ze uitgaan van eigen dossiers, wetsteksten en onafhankelijke bronnen. AI mag hooguit helpen bij structuur en stijl. Voor inhoudelijke claims willen ze herleidbare bronnen en menselijke verificatie. Dat past bij de journalistieke en parlementaire norm van controleerbaarheid.

AVG begrenst dataverzameling

De AVG stelt strenge eisen aan politieke data. Gegevens over iemands politieke voorkeur vallen onder ā€œbijzondere categorieĆ«nā€ en mogen in principe niet worden verwerkt zonder expliciete toestemming. Dat raakt microtargeting en het opbouwen van profielen voor advertenties. Partijen moeten daarom kiezen voor dataminimalisatie en duidelijke opt-ins.

De Autoriteit Persoonsgegevens waarschuwt voor scraping van sociale media en het combineren van datasets. Zulke praktijken kunnen leiden tot onrechtmatige profilering. Encryptie, bewaartermijnen en toegangsbeheer zijn verplicht om risico’s te verkleinen. Lokale afdelingen krijgen daardoor extra administratieve lasten.

AI-diensten van Amerikaanse aanbieders brengen ook vragen over doorgifte van data buiten de EU. Contracten moeten standaardclausules bevatten en functies als ā€œgeen training op klantdataā€ moeten aanstaan. Veel partijen kiezen daarom voor privacyvriendelijke instellingen of Europese alternatieven. Dat verlaagt risico’s, maar kan functionaliteit beperken.

AI-verordening dwingt transparantie

De Europese AI-verordening (AI Act) legt nieuwe plichten op aan aanbieders en gebruikers. Verboden praktijken, zoals bepaalde vormen van biometrische identificatie, gelden vanaf begin 2025 op het moment van schrijven. Transparantie-eisen voor deepfakes en generatieve content volgen kort daarop. Publicaties moeten dan duidelijk maken dat ze met AI zijn gemaakt of bewerkt.

Systemen die kiezers beĆÆnvloeden met gepersonaliseerde boodschappen kunnen in de hoge risicoklasse vallen. Dat brengt documentatie, risicobeheer en menselijk toezicht met zich mee. Voor politieke partijen betekent dat extra processtappen bij inzet van datamodellen. Niet naleven kan leiden tot boetes en reputatieschade.

Grote generatieve modellen krijgen aparte regels rond ā€œsystemische risico’sā€. Aanbieders moeten evaluaties delen en veiligheidsmaatregelen nemen. Gebruikers, zoals partijen en campagnes, blijven verantwoordelijk voor correcte toepassing en duidelijke labeling. Daarmee worden governance en audit-trails onderdeel van het dagelijkse werk.

Richtlijnen en training ontbreken

Veel organisaties hebben nog geen uitgewerkte AI-richtlijnen. Medewerkers vragen om heldere do’s en don’ts, bijvoorbeeld over het invoeren van vertrouwelijke informatie in chatbots. Zonder beleid ontstaat er schaduw-IT en wisselende werkwijzen. Dat vergroot de kans op fouten en datalekken.

Interne training kan helpen om risico’s te verkleinen en kwaliteit te borgen. Denk aan checklists: bronvermelding, feitcontrole, bias-scan en finale menselijke review. Ook afspraken met externe bureaus zijn nodig, inclusief clausules over AI-gebruik en transparantie. Zo weten kiezers wat wel en niet door een systeem is gemaakt.

Techniek mag ondersteunend zijn, maar niet leidend in politieke keuzes, benadrukken partijen. Ze vragen om praktische tools die privacy respecteren en uitleg geven bij uitkomsten. Europese en Nederlandse regels geven daarbij het kader. De verwachting is dat inzet toeneemt zodra beleid, training en tooling op orde zijn.

Voorzichtigheid blijft het uitgangspunt

Op korte termijn kiezen partijen voor kleine, beheersbare toepassingen. Denk aan samenvatten, vertalen en opmaak, met een menselijke eindredactie. Grotere stappen wachten op duidelijk beleid en ervaring in de praktijk. Zo proberen partijen innovatie te benutten zonder vertrouwen te verliezen.

De komende jaren bepalen de AVG en de AI Act de speelruimte voor politieke AI. Transparantie, bronherkomst en dataminimalisatie worden standaard. Dat vraagt discipline, maar biedt ook houvast. Kiezers krijgen zo meer zekerheid over wat ze zien en lezen.

Intussen volgen partijen de markt van tools en open modellen kritisch. Ze willen grip op data en weg blijven van ā€œblack boxesā€. Waar mogelijk testen ze Europese alternatieven met datalokalisatie. Pas als betrouwbaarheid toeneemt, zal het gebruik echt groeien.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>