Overheden, bedrijven en universiteiten werken aan mensgerichte kunstmatige intelligentie. Zij willen systemen die veilig, eerlijk en uitlegbaar zijn. In Europa krijgt dit vorm via de AI-verordening, die op het moment van schrijven stapsgewijs wordt ingevoerd. Dat is nodig omdat AI steeds vaker wordt gebruikt in zorg, overheid en onderwijs, met directe gevolgen voor burgers en de Europese AI-verordening gevolgen overheid en bedrijven.
Mensgericht ontwerp vraagt keuzes
Mensgerichte AI betekent dat een algoritme werkt in dienst van mensen en hun rechten. Het systeem moet begrijpelijk zijn en fouten kunnen worden hersteld. Ook blijft een mens verantwoordelijk voor beslissingen met grote impact, zoals krediet, zorg of toelating tot voorzieningen.
Zoān aanpak verkleint de kans op discriminatie en verkeerde uitkomsten. Voorbeelden zijn werving, kredietbeoordeling en voorspellend politiewerk. Als de data scheef zijn, wordt de uitkomst ook scheef. Menselijke controle, heldere uitleg en correctiemechanismen zijn dan essentieel.
Internationale richtlijnen ondersteunen dit. De OESO en UNESCO benadrukken waardigheid, transparantie en veiligheid. De Europese Commissie en de High-Level Expert Group on AI vertaalden dit eerder naar eisen voor ābetrouwbare AIā, zoals traceerbaarheid en toezicht door mensen.
EU AI-verordening bepaalt kaders
De AI-verordening (AI Act) introduceert een risicogebaseerde aanpak in de EU. Op het moment van schrijven is de wet in werking en geldt een gefaseerde invoering. Toepassingen met hoog risico, zoals AI voor werving of krediet, moeten voldoen aan strenge eisen voor data, documentatie en menselijk toezicht.
Daarnaast gelden plichten voor general-purpose modellen, ook wel GPAI of foundation-modellen. Grote modellen met systeemrisicoās krijgen extra eisen voor veiligheidsmaatregelen en rapportage. Dit raakt aanbieders van modellen en organisaties die ze doorleveren in producten en diensten.
De AI Act werkt samen met de AVG. Organisaties moeten dataminimalisatie toepassen, DPIAās (gegevensbeschermingseffectbeoordelingen) uitvoeren en zorgen voor beveiliging. In de praktijk betekent dit: minder data verzamelen, beter versleutelen en duidelijk uitleggen wat het model doet.
De AI-verordening deelt toepassingen in vier risiconiveaus: onaanvaardbaar, hoog, beperkt en minimaal. Voor hoog-risico gelden strenge eisen; onaanvaardbaar wordt verboden.
Gevolgen voor Nederlandse overheid
Voor Nederlandse overheden betekent dit heldere spelregels. Gemeenten en uitvoeringsorganisaties moeten AI-toepassingen in kaart brengen, risicoās beoordelen en registreren. Bestaande algoritmeregisters bij gemeenten, zoals in Amsterdam, helpen bij transparantie richting inwoners.
Toezicht en handhaving krijgen een plek bij bestaande autoriteiten. De Autoriteit Persoonsgegevens coƶrdineert op het moment van schrijven het toezicht op algoritmen en let op AVG-naleving. Nationale toezichthouders zullen rollen verdelen zodra de AI Act volledig van kracht is.
Inkoop verandert ook. Overheden moeten leveranciers vragen om modelkaarten, risicoanalyses, bias-tests en het recht op audit. Dat dwingt marktpartijen om documentatie op orde te hebben en ondersteunt uitlegbaarheid richting burgers en rechters.
Techbedrijven zoeken balans openheid
Grote aanbieders passen zich aan. OpenAI (ChatGPT), Google (Gemini), Anthropic (Claude) en Meta (Llama) publiceren steeds vaker systeem- of modelkaarten met informatie over capaciteiten en risicoās. Toch blijven beperkingen, zoals hallucinaties en vooroordelen, zichtbaar in dagelijkse tests.
Open modellen krijgen in Europa extra aandacht, ook vanwege AVG-eisen en datalokaal draaien. Metaās Llama en de modellen van Mistral bieden organisaties de optie om on-premises te werken. Dat kan privacyrisicoās verkleinen en kosten voorspelbaarder maken.
Tegelijk vraagt de AI Act om meer transparantie over trainingsdata en evaluaties. Closed-source aanbieders zoeken daarom naar manieren om voldoende inzicht te geven zonder intellectueel eigendom prijs te geven. Initiatieven als C2PA voor herkomstlabels van media winnen terrein bij tech en uitgevers.
Uitlegbaarheid en data blijven lastig
Uitlegbaarheid is vaak een ruil tussen eenvoud en nauwkeurigheid. Complexe datamodellen presteren goed, maar zijn moeilijk te begrijpen. Hulpmiddelen als modelkaarten en impactrapporten helpen, maar vervangen geen heldere keuze over wel of geen inzet bij hoog risico.
Datakwaliteit is een tweede knelpunt. Veel modellen zijn getraind op onduidelijke of verouderde datasets. Zonder zicht op herkomst ontstaat juridisch risico onder de AVG en kan bias toenemen, zeker in kleinere taalgebieden zoals het Nederlands.
Contentauthenticiteit en digitale weerbaarheid worden daarom belangrijker. Watermerken en herkomstlabels via C2PA kunnen misleiding tegengaan. Maar dit werkt pas echt als platforms, overheden en mediabedrijven het breed invoeren en controleren.
Praktische stappen voor nu
Begin met een inventarisatie: waar gebruikt uw organisatie AI, met welk doel en welk risico? Koppel elk systeem aan een eigenaar, leg beslisregels vast en test op bias. Voer een DPIA uit waar nodig en stel een plan op voor incidenten en klachten.
Kies het juiste model voor de taak. Voor gevoelige processen is een kleiner, uitlegbaar model vaak beter. Overweeg open modellen zoals Llama of Mistral voor lokaal gebruik, of kies een cloudmodel met sterke documentatie en duidelijke service-afspraken.
Werk multidisciplinair. Betrek juristen, data-experts, ethici en eindgebruikers. Dat sluit aan bij de AI Act, versterkt vertrouwen en maakt mensgerichte keuzes aantoonbaar in de praktijk.
