In Nederland gebruikt ruim de helft van de gemeenteambtenaren kunstmatige intelligentie op eigen initiatief. Het gaat vooral om generatieve AI voor schrijven, samenvatten en vertalen. Het gebruik groeit snel, terwijl beleid, scholing en toezicht nog achterlopen. Dat is relevant door de AVG en de Europese AI‑verordening, die gevolgen heeft voor de overheid en gemeentelijke algoritmen.
Ambtenaren testen AI zelf
Gemeenteambtenaren proberen AI uit om sneller te werken en betere teksten te maken. Ze gebruiken het bij e-mails, memo’s en het structureren van beleidsnotities. Dit gebeurt vaak zonder formele opdracht, als praktische hulp naast bestaande software.
De drijfveer is vooral tijdwinst en minder routinematig schrijfwerk. Medewerkers ervaren dat systemen razendsnel voorbeelden en samenvattingen geven. Daardoor schuift AI op naar een standaard hulpmiddel op de werkplek.
Die snelle adoptie zorgt ook voor onduidelijkheid. Niet elke afdeling weet welke tools zijn toegestaan en waarvoor. Daardoor ontstaan verschillende werkwijzen per team en risico’s rond privacy en kwaliteit.
Interne regels blijven achter
Veel organisaties hebben nog geen helder AI‑beleid voor dagelijks werk. Basisvragen zijn onbeantwoord: welke data mag in een tool, en wie controleert uitkomsten? Zonder kaders dreigt schaduw‑IT: gebruik van systemen buiten toezicht van de organisatie.
De AVG stelt eisen aan het verwerken van persoonsgegevens, zoals dataminimalisatie en beveiliging. Als ambtenaren conceptteksten met burgerspecifieke informatie in een model zetten, is vaak een voorafgaande risicoanalyse nodig. Een Data Protection Impact Assessment (DPIA) helpt om die risico’s zichtbaar te maken.
De Europese AI‑verordening (AI Act) voegt daar nieuwe plichten aan toe. Hoogrisico‑toepassingen in de publieke sector vragen onder meer om risicobeheer, datagovernance, menselijke controle en transparantie. Ook het gebruik van generatieve AI valt onder regels voor algemene‑doel AI, met aandacht voor documentatie en informatie aan gebruikers.
Bekende tools en beperkingen
In de praktijk gaat het om generatieve AI zoals ChatGPT van OpenAI, Microsoft Copilot in Microsoft 365 en Google Gemini. Deze systemen zijn getraind op grote hoeveelheden tekst en voorspellen het volgende woord in een zin. Ze zijn handig voor eerste versies, checklists en samenvattingen.
Generatieve AI is software die nieuwe tekst, beelden of code maakt op basis van voorbeelden uit trainingsdata.
De keerzijde: uitkomsten kunnen onjuist of verouderd zijn, een fout die vaak “hallucinatie” heet. Ook kunnen teksten te stellig of te algemeen zijn. Daarom is menselijke controle nodig en blijft de gebruiker eindverantwoordelijk.
Vertrouwelijkheid is een tweede zorg. Zonder goede instellingen kan ingevoerde informatie de leverancier bereiken of in logbestanden belanden. Organisaties moeten daarom kiezen voor bedrijfscontracten, EU‑dataverwerking en duidelijke afspraken over opslag en training.
Scholing en duidelijke kaders
Medewerkers hebben training nodig in veilig en effectief gebruik. Denk aan het formuleren van duidelijke opdrachten, broncontrole en het redigeren van AI‑teksten. Ook hoort daarbij: geen bijzondere persoonsgegevens invoeren en gevoelige data afschermen.
Voor organisaties werken praktische spelregels het best. Bijvoorbeeld: een goedgekeurde lijst met tools, dataclassificatie, en vaste controles voor publieke publicaties. Loggen van gebruik kan helpen om te leren wat werkt en waar risico’s zitten.
Gemeenten kunnen daarnaast een openbaar AI‑ of algoritmeregister bijhouden, in lijn met Nederlandse transparantie‑initiatieven. VNG publiceert op het moment van schrijven handreikingen voor verantwoord algoritmegebruik. Zulke kaders maken intern overleg sneller en versoepelen inkoop en audits.
AI‑verordening treft gemeenten
De AI‑verordening treedt gefaseerd in werking vanaf 2025, met strengere verplichtingen in de jaren erna. Gebruik van AI dat burgers direct raakt, zoals besluiten over voorzieningen, kan in de hoogrisico‑categorie vallen. Dan gelden extra eisen, zoals toetsing, documentatie en menselijke tussenkomst.
Schrijfhulp met algemene modellen is meestal geen hoogrisico, maar blijft niet vrij van regels. Transparantie naar medewerkers, goede contracten met leveranciers en toezicht op kwaliteit blijven nodig. Bij inzet richting burgers is duidelijke melding en begrijpelijke uitleg essentieel.
Wie nu al investeert in beleid, bespaart later tijd bij naleving. Begin met een inventarisatie van gebruik, stel een AI‑beleid op en koppel het aan de AVG‑processen. Zo wordt spontaan gebruik door medewerkers omgezet in veilig, effectief en rechtmatig werken met algoritmen.
