Regering wil AI op onze rekeningen — eerst kritisch naar eigen uitgaven

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Regering wil AI op onze rekeningen — eerst kritisch naar eigen uitgaven

Amsterdam, 6 december 2025 07:31 

De Belgische federale regering wil kunstmatige intelligentie inzetten om rekeningen en uitgaven te screenen. Het plan wordt besproken in België om fraude sneller op te sporen en kosten te drukken. Het gaat om geautomatiseerde analyses van betaalgegevens en facturen. Critici waarschuwen dat de overheid eerst haar eigen uitgaven beter moet controleren en transparant maken.

Plan raakt privacy en vertrouwen

Het idee is dat algoritmen ongewone patronen in rekeningen en transacties vinden. Zo kan de overheid sneller fraude, misbruik of dubbele declaraties detecteren. De inzet van zo’n systeem raakt direct aan financiële gegevens, die zeer gevoelig zijn. Dat maakt privacy en vertrouwen de kern van het debat.

Details over leverancier, dataset of model zijn op het moment van schrijven niet openbaar. Onbekend is ook of het om een proefproject of een brede uitrol gaat. Zonder heldere doelen en meetbare criteria ontstaat het risico op willekeur. Dat kan leiden tot meer bezwaarprocedures en langere doorlooptijden.

Als het om belasting- of uitgavencontroles gaat, ligt uitvoering door FOD Financiën voor de hand. Dan worden regels voor toezicht en inzage cruciaal. Burgers moeten weten welke gegevens worden gebruikt en waarom. Er moet altijd een mens verantwoordelijk blijven voor de eindbeslissing.

Europese regels zetten grenzen

De Europese AI-verordening (AI Act) plaatst dit soort overheidssystemen in een hoge risicoklasse. Dat betekent strenge eisen aan risicobeheer, datakwaliteit, transparantie en menselijk toezicht. Daarnaast gelden de AVG-regels, zoals dataminimalisatie en doelbinding. De overheid moet aantonen dat het gebruik noodzakelijk is en proportioneel.

Een Data Protection Impact Assessment (DPIA) is verplicht bij dit type verwerking. Daarin staat welke gegevens nodig zijn, hoe die worden beveiligd en hoe lang ze worden bewaard. Versleuteling, strikte toegangsrechten en logboeken zijn basisvoorwaarden. Ook moet een duidelijke grondslag in de wet aanwezig zijn.

De AI-verordening deelt systemen in risicoklassen: minimaal, beperkt, hoog risico en onaanvaardbaar. Overheidscontrole van burgers valt meestal onder ‘hoog risico’ en vraagt extra waarborgen.

De Belgische Gegevensbeschermingsautoriteit (GBA) houdt toezicht op naleving van de AVG. Bij hoogrisico-AI kan vooraf overleg met de toezichthouder nodig zijn. Daarnaast moeten hoogrisico-systemen in een EU-database worden geregistreerd. Dat maakt publieke controle later beter mogelijk.

Hoogrisico-AI vereist toezicht

Effectieve controles staan of vallen met goede data. Modellen die op foute of scheve datasets zijn getraind, leveren meer valse meldingen op. Dat treft gewone burgers en kleine bedrijven onevenredig hard. Heldere foutmarges en onafhankelijke audits zijn daarom nodig.

Uitlegbaarheid is essentieel bij besluiten over geld of rechten. Het systeem moet kunnen aangeven welke regels of patronen tot een signaal leidden. Alleen zo kan een burger zinvol bezwaar maken. Een verplicht “mens-in-de-lus” voorkomt dat het algoritme de facto beslist.

Inkoop verdient extra aandacht. Vendor lock-in en onduidelijke licenties maken latere controle moeilijk. Open standaarden en exit-clausules beperken risico’s en kosten. Publicatie van brondata is niet altijd mogelijk, maar documentatie over herkomst en kwaliteit wel.

Nederlandse lessen zijn duidelijk

In Nederland verklaarde de rechter het risicomodel SyRI in 2020 onrechtmatig. De inzet was disproportioneel en onvoldoende transparant. Ook de toeslagenaffaire toonde hoe risicomodellen en signalen tot discriminatie en massale fouten kunnen leiden. Deze geschiedenis waarschuwt voor te brede datakoppelingen en vage criteria.

Lokale overheden in Nederland publiceren steeds vaker algoritmeregisters. Dat vergroot de zichtbaarheid van datamodellen, doel en juridische basis. België kan hierop aansluiten met eigen registers en technische audits. Dat versterkt het publiek vertrouwen en verbetert de kwaliteit.

Een zorgvuldig stappenplan helpt: klein beginnen, extern laten toetsen en faseren. Stoplichten en stopcriteria horen erbij als fouten oplopen. Zo blijft de schade beperkt als het systeem niet doet wat was beloofd. En de politiek behoudt grip op risico’s en kosten.

Overheid moet kosten toelichten

De belofte is dat AI kosten bespaart door minder fraude en efficiëntere controles. Maar de overheid moet eerst haar eigen IT-uitgaven volledig inzichtelijk maken. Dat betekent totale kosten per jaar, inclusief licenties, cloud en consultants. Zonder dat overzicht is elke claim over besparingen speculatief.

Een kosten-batenanalyse hoort openbaar te zijn. Met scenario’s voor accuratesse, foutmeldingen en bezwaarafhandeling. Ook moeten de kosten van datakwaliteit en beveiliging zijn meegerekend. Pas dan is een eerlijk debat mogelijk over nut en noodzaak.

Europese aanbestedingsregels vragen bovendien om gelijke kansen voor aanbieders. Heldere functionele eisen en auditplicht in contracten zijn cruciaal. Dat voorkomt dat de overheid vastzit aan één leverancier. En het dwingt tot betere documentatie en prestatieafspraken.

Gevolgen voor burgers en bedrijven

Als het systeem start, moeten burgers weten wat verandert. Er hoort een duidelijke toelichting te komen over gegevensbronnen, criteria en rechten. Iedereen heeft recht op inzage, correctie en bezwaar onder de AVG. Besluiten met grote impact moeten door een medewerker kunnen worden herzien.

Bedrijven die facturen of transacties aanleveren, krijgen te maken met extra controles. Dat vraagt heldere technische specificaties en beveiligingsstandaarden. Ook moeten zij weten hoe lang gegevens worden bewaard en met wie gedeeld. Onzekerheid vergroot de administratieve last.

Tot slot is het belangrijk om het doel beperkt te houden. Gericht op concrete fraude-indicatoren, niet op brede profilering. Een smalle scope vermindert privacyrisico’s en juridische problemen. En het vergroot de kans dat de technologie echt waarde toevoegt.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>