De Europese Commissie stelt deze maand delen van de Europese AI‑verordening (AI Act) uit. In Brussel wordt gewerkt aan uitvoeringsregels voor grote AI‑modellen en hoogrisico‑toepassingen. Die regels komen later, na stevige druk van grote technologiebedrijven en enkele lidstaten. Doel is meer tijd voor praktische uitwerking en impact op innovatie te beoordelen.
Invoering schuift maanden op
De kern van het uitstel ligt bij zogeheten uitvoeringshandelingen. Dat zijn nadere regels die uitleggen hoe bedrijven en overheden precies moeten voldoen. Zonder die details is het lastiger om producten te certificeren en algoritmen te toetsen.
De Europese AI‑verordening werkt met risicoklassen: verboden, hoog, beperkt en minimaal risico. Hoogrisico‑systemen zijn bijvoorbeeld algoritmen voor toelating tot onderwijs of kredietbeoordeling. Voor die categorie is een conformiteitsbeoordeling nodig, een controle of een systeem aan alle eisen voldoet.
Brussel schuift publicatie van sjablonen, testprotocollen en registers enkele maanden op. Dat raakt ook de EU‑database waarin hoogrisico‑toepassingen straks moeten worden aangemeld. Zonder die bouwstenen stokt de voorbereiding bij ontwikkelaars en toezichthouders.
Techlobby vertraagt regels
Grote technologiebedrijven als OpenAI, Microsoft, Google, Meta en Amazon vroegen om meer ruimte. Zij vrezen te zware lasten voor onderzoek, vooral bij open‑modellen zoals Llama. Ook Europese spelers, waaronder Mistral AI, waarschuwen dat strikte plichten hun schaalbaarheid hinderen.
De Commissie wil voorkomen dat regels onbedoeld innovatie afremmen. Daarom worden concepten voor testmethoden en rapportageformats opnieuw getoetst met industrie en standaardisatieorganisaties. Het gaat om praktische vragen, zoals hoe impactrapporten eruitzien en welke metrieken nodig zijn.
Lidstaten vragen tegelijk om rechtszekerheid voor handhaving. Nationale toezichthouders willen duidelijke drempels en eenduidige definities. De balans tussen uitvoerbaarheid en bescherming van burgers staat daardoor weer op de agenda.
Regels voor fundamentmodellen
General‑purpose AI (GPAI) zijn fundamentmodellen, zoals GPT‑4, Gemini en Llama, die breed inzetbaar zijn. De AI‑verordening introduceert extra plichten voor modellen met mogelijk systeemrisico. Denk aan robuuste veiligheidstesten, energierapportage en uitleg over trainingsdata.
De Europese AI Office, het coördinatiepunt in Brussel, werkt aan codes of practice. Dat zijn praktische richtlijnen voor evaluaties, documentatie en incidentmelding. Pas daarna volgen bindende formats en drempels via formele besluiten.
Precies vastleggen wanneer een model “systeemrisico” heeft, blijkt lastig. De keuze voor technische maatstaven, zoals rekenkracht en schaal, heeft grote gevolgen. Een te lage drempel raakt veel start‑ups; een te hoge drempel mist juist risicovolle modellen.
Gevolgen voor Nederlandse overheid
Voor Nederlandse overheden verandert de plicht tot zorgvuldigheid niet. Wie algoritmen inzet in dienstverlening of toezicht, moet blijven voldoen aan de AVG. Dat betekent dataminimalisatie, goede beveiliging en transparantie over het doel van de verwerking.
Hoogrisico‑toepassingen in het publieke domein, zoals selectie in sociale zekerheid of risicoscoring, krijgen straks extra eisen. Denk aan menselijke tussenkomst, kwaliteitsbeheer van datasets en registratie in de EU‑database. Het uitstel zorgt voor onzekerheid over de exacte formats, maar niet over de richting.
De Autoriteit Persoonsgegevens blijft toezien op privacy, op het moment van schrijven. De Rijksinspectie Digitale Infrastructuur bereidt markttoezicht voor technische eisen voor. Afnemers doen er goed aan contracten nu al te voorzien van auditrechten en modeldocumentatie‑eisen.
Boetes blijven fors
Het risicogestuurde stelsel van de AI‑verordening blijft overeind. Verboden toepassingen, zoals sociale scoring door overheden, blijven verboden. Ook transparantieplichten voor generatieve systemen, zoals duidelijke labeling van synthetische media, gelden onverminderd.
Boetes kunnen bij zware overtredingen oplopen tot 7% van de wereldwijde jaaromzet of tientallen miljoenen euro, op het moment van schrijven.
Uitstel van uitvoeringsdetails is dus geen vrijbrief. Bedrijven moeten aantoonbaar werken aan risicobeperking, testen en logboekvoering. Wie nu al documenteert en onafhankelijke evaluaties regelt, beperkt latere compliance‑kosten.
Tijdlijn en wat volgt
De verordening trad in 2024 in werking, met gefaseerde toepassing tot en met 2026. Door het huidige uitstel verschuiven specifieke handleidingen en sjablonen naar later dit jaar. De Commissie koppelt die aan consultaties met industrie, wetenschap en burgerorganisaties.
Standaardisatie bij CEN‑CENELEC en ISO/IEC loopt door. Deze normen vertalen wettelijke doelen naar testbare eisen voor datamodellen en systemen. Zodra ze beschikbaar zijn, kunnen fabrikanten en afnemers conformeren via herkenbare kwaliteitsstandaarden.
Voor nu is de praktische opdracht helder. Werk met risicoklassen, leg ontwerpkeuzes vast en test modellen op bias en robuustheid. Zo is de stap naar de Europese AI‑verordening kleiner zodra de laatste uitvoeringsregels verschijnen.
