Abu Dhabi onthult ’s werelds eerste AI-ambtenaar op GITEX 2025: wat nu?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Abu Dhabi onthult ’s werelds eerste AI-ambtenaar op GITEX 2025: wat nu?

Amsterdam, 15 oktober 2025 17:47 

De overheid van Abu Dhabi presenteerde tijdens GITEX Global 2025 een “AI-ambtenaar”. Het systeem moet burgers en bedrijven 24/7 helpen bij vragen en aanvragen. De presentatie vond plaats op de techbeurs in Dubai, in oktober 2025. Met deze stap wil Abu Dhabi de publieke dienstverlening sneller en goedkoper maken.

Abu Dhabi kiest voor AI-ambtenaar

De emirate positioneert zich al jaren als regiohub voor kunstmatige intelligentie. Met de AI-ambtenaar voegt Abu Dhabi daar een zichtbaar overheidsproduct aan toe. De naam van de tool is op het moment van schrijven niet bekendgemaakt. Ook technische details blijven beperkt.

De AI-ambtenaar wordt gepresenteerd als ’s werelds eerste in zijn soort. Die claim is lastig te toetsen, omdat andere landen al vergelijkbare digitale assistenten inzetten. Denk aan Estlands “Bürokratt” en aan stadsbrede AI-assistenten in de Golfregio. De term “ambtenaar” is hier vooral symbolisch: het gaat om software, geen menselijke functionaris.

Het systeem draait waarschijnlijk op een groot taalmodel, een algoritme dat tekst begrijpt en kan genereren. Zo’n model kan gesprekken voeren en standaardvragen afhandelen. De overheid kan het koppelen aan interne systemen, bijvoorbeeld voor statusupdates van vergunningen. Dat vergt wel strikte toegangscontrole en logboekregistratie.

Wat het systeem moet gaan doen

De AI-ambtenaar is bedoeld voor veelgestelde vragen en eenvoudige procedures. Voorbeelden zijn formulieren invullen, afspraken plannen en basisinformatie over regelgeving geven. In potentie werkt het via chat, spraak of aan een balie met een scherm. Een synthetische stem is een computerstem die tekst hardop voorleest.

Belangrijk is meertaligheid. In de Golfregio zijn Arabisch en Engels de standaard, maar andere talen kunnen nodig zijn. Voor Europa telt vooral dat een Nederlandstalige variant begrijpelijk, inclusief en toegankelijk moet zijn. Dit vraagt extra testen op begrijpelijke taal en digitale toegankelijkheid.

Complexe zaken blijven mensenwerk. Denk aan bezwaar, maatwerk of juridische duiding. Dan moet het systeem tijdig doorverwijzen naar een medewerker. Zo blijft er een “mens in de lus”, wat verplicht is bij risicovolle AI-toepassingen in de publieke sector.

Europese AI-verordening gevolgen overheid

In de EU valt AI voor publieke dienstverlening onder strenge regels. De Europese AI-verordening (AI Act) is in 2024 in werking getreden en wordt gefaseerd van kracht. Toepassingen die toegang geven tot overheidsdiensten gelden doorgaans als hoog risico. Dat vraagt voorafgaande risicobeoordeling, technische documentatie en toezicht.

Daarnaast geldt de AVG voor alle persoonsgegevens. Dat betekent dataminimalisatie, doelbinding en een duidelijke grondslag voor verwerking. Vaak is een Data Protection Impact Assessment nodig, een privacyrisico-analyse. Gegevens moeten versleuteld worden opgeslagen en verzonden.

AI die burgers begeleidt bij toegang tot publieke diensten geldt in de EU als hoog risico en vereist menselijk toezicht, transparantie, zorgvuldige documentatie en registratie in de EU-database.

Voor Nederland betekent dit dat een AI-ambtenaar pas na conformiteitsbeoordeling en met duidelijke waarborgen live kan. Denk aan uitlegbaarheid, onafhankelijke audit en klachtenafhandeling. Ook moet het systeem herkenbaar zijn als AI en niet als mens. Op het moment van schrijven werken Europese toezichthouders aan praktische richtsnoeren voor dit soort systemen.

Risico’s, privacy en toezicht

Grote taalmodellen kunnen fouten maken, ook wel “hallucinaties” genoemd. In publieke dienstverlening kan zo’n fout grote gevolgen hebben. Daarom zijn bronverwijzingen, versiebeheer en menselijk toezicht essentieel. Antwoorden moeten zonodig automatisch worden gecheckt tegen officiële regels en data.

Er zijn ook risico’s rond discriminatie. Trainingsteksten kunnen vooroordelen bevatten die uitkomsten beïnvloeden. Organisaties moeten dit testen met representatieve scenario’s en diverse voorbeeldcases. Resultaten en verbeteracties horen in een openbaar verslag.

Leveranciersonafhankelijkheid is een ander punt. Als een overheid een extern model gebruikt, kan er sprake zijn van lock-in. Contracten moeten daarom eisen opnemen over portabiliteit, beveiliging en incidentmelding. Open standaarden en herbruikbare API’s verminderen de afhankelijkheid.

Lessen voor Nederlandse diensten

Nederlandse gemeenten en uitvoeringsorganisaties kunnen van deze stap leren. Begin klein met een afgebakende taak en duidelijke meetpunten. Voer vooraf een DPIA en een AI-risicoanalyse uit. Leg vast wanneer en hoe wordt opgeschaald of teruggeschakeld.

Regel vanaf dag één menselijk toezicht. Medewerkers moeten AI-uitkomsten kunnen controleren en corrigeren. Zorg ook voor begrijpelijke uitleg aan burgers. Denk aan heldere taal, toegankelijke interfaces en keuzevrijheid voor een menselijk kanaal.

Tot slot: publiceer wat het systeem wel en niet kan. Noem gebruikte datamodellen, testresultaten en beveiligingsmaatregelen. Registreer de toepassing als hoog-risico AI wanneer dat nodig is. Zo ontstaat vertrouwen en voldoet de overheid aan de AI Act en de AVG.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>