EU stelt AI-regels uit na druk van Google, Microsoft en OpenAI (ChatGPT)

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • EU stelt AI-regels uit na druk van Google, Microsoft en OpenAI (ChatGPT)

Amsterdam, 1 april 2026 14:57 

De Europese Commissie stelt deze maand delen van de Europese AI‑verordening (AI Act) uit. In Brussel wordt gewerkt aan uitvoeringsregels voor grote AI‑modellen en hoogrisico‑toepassingen. Die regels komen later, na stevige druk van grote technologiebedrijven en enkele lidstaten. Doel is meer tijd voor praktische uitwerking en impact op innovatie te beoordelen.

Invoering schuift maanden op

De kern van het uitstel ligt bij zogeheten uitvoeringshandelingen. Dat zijn nadere regels die uitleggen hoe bedrijven en overheden precies moeten voldoen. Zonder die details is het lastiger om producten te certificeren en algoritmen te toetsen.

De Europese AI‑verordening werkt met risicoklassen: verboden, hoog, beperkt en minimaal risico. Hoogrisico‑systemen zijn bijvoorbeeld algoritmen voor toelating tot onderwijs of kredietbeoordeling. Voor die categorie is een conformiteitsbeoordeling nodig, een controle of een systeem aan alle eisen voldoet.

Brussel schuift publicatie van sjablonen, testprotocollen en registers enkele maanden op. Dat raakt ook de EU‑database waarin hoogrisico‑toepassingen straks moeten worden aangemeld. Zonder die bouwstenen stokt de voorbereiding bij ontwikkelaars en toezichthouders.

Techlobby vertraagt regels

Grote technologiebedrijven als OpenAI, Microsoft, Google, Meta en Amazon vroegen om meer ruimte. Zij vrezen te zware lasten voor onderzoek, vooral bij open‑modellen zoals Llama. Ook Europese spelers, waaronder Mistral AI, waarschuwen dat strikte plichten hun schaalbaarheid hinderen.

De Commissie wil voorkomen dat regels onbedoeld innovatie afremmen. Daarom worden concepten voor testmethoden en rapportageformats opnieuw getoetst met industrie en standaardisatieorganisaties. Het gaat om praktische vragen, zoals hoe impactrapporten eruitzien en welke metrieken nodig zijn.

Lidstaten vragen tegelijk om rechtszekerheid voor handhaving. Nationale toezichthouders willen duidelijke drempels en eenduidige definities. De balans tussen uitvoerbaarheid en bescherming van burgers staat daardoor weer op de agenda.

Regels voor fundamentmodellen

General‑purpose AI (GPAI) zijn fundamentmodellen, zoals GPT‑4, Gemini en Llama, die breed inzetbaar zijn. De AI‑verordening introduceert extra plichten voor modellen met mogelijk systeemrisico. Denk aan robuuste veiligheidstesten, energierapportage en uitleg over trainingsdata.

De Europese AI Office, het coördinatiepunt in Brussel, werkt aan codes of practice. Dat zijn praktische richtlijnen voor evaluaties, documentatie en incidentmelding. Pas daarna volgen bindende formats en drempels via formele besluiten.

Precies vastleggen wanneer een model “systeemrisico” heeft, blijkt lastig. De keuze voor technische maatstaven, zoals rekenkracht en schaal, heeft grote gevolgen. Een te lage drempel raakt veel start‑ups; een te hoge drempel mist juist risicovolle modellen.

Gevolgen voor Nederlandse overheid

Voor Nederlandse overheden verandert de plicht tot zorgvuldigheid niet. Wie algoritmen inzet in dienstverlening of toezicht, moet blijven voldoen aan de AVG. Dat betekent dataminimalisatie, goede beveiliging en transparantie over het doel van de verwerking.

Hoogrisico‑toepassingen in het publieke domein, zoals selectie in sociale zekerheid of risicoscoring, krijgen straks extra eisen. Denk aan menselijke tussenkomst, kwaliteitsbeheer van datasets en registratie in de EU‑database. Het uitstel zorgt voor onzekerheid over de exacte formats, maar niet over de richting.

De Autoriteit Persoonsgegevens blijft toezien op privacy, op het moment van schrijven. De Rijksinspectie Digitale Infrastructuur bereidt markttoezicht voor technische eisen voor. Afnemers doen er goed aan contracten nu al te voorzien van auditrechten en modeldocumentatie‑eisen.

Boetes blijven fors

Het risicogestuurde stelsel van de AI‑verordening blijft overeind. Verboden toepassingen, zoals sociale scoring door overheden, blijven verboden. Ook transparantieplichten voor generatieve systemen, zoals duidelijke labeling van synthetische media, gelden onverminderd.

Boetes kunnen bij zware overtredingen oplopen tot 7% van de wereldwijde jaaromzet of tientallen miljoenen euro, op het moment van schrijven.

Uitstel van uitvoeringsdetails is dus geen vrijbrief. Bedrijven moeten aantoonbaar werken aan risicobeperking, testen en logboekvoering. Wie nu al documenteert en onafhankelijke evaluaties regelt, beperkt latere compliance‑kosten.

Tijdlijn en wat volgt

De verordening trad in 2024 in werking, met gefaseerde toepassing tot en met 2026. Door het huidige uitstel verschuiven specifieke handleidingen en sjablonen naar later dit jaar. De Commissie koppelt die aan consultaties met industrie, wetenschap en burgerorganisaties.

Standaardisatie bij CEN‑CENELEC en ISO/IEC loopt door. Deze normen vertalen wettelijke doelen naar testbare eisen voor datamodellen en systemen. Zodra ze beschikbaar zijn, kunnen fabrikanten en afnemers conformeren via herkenbare kwaliteitsstandaarden.

Voor nu is de praktische opdracht helder. Werk met risicoklassen, leg ontwerpkeuzes vast en test modellen op bias en robuustheid. Zo is de stap naar de Europese AI‑verordening kleiner zodra de laatste uitvoeringsregels verschijnen.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

AMD steeg op het moment van schrijven met circa 10% op Wall Street, nadat Meta Platforms een grote meerjarige aankoopdeal

Onbekenden hebben deze week ingebroken in een woning in Genk. Zij namen juwelen en geld mee en lieten schade achter.

Belgische bedrijven zetten kunstmatige intelligentie steeds vaker in. Op het moment van schrijven gebruikt al 1 op de 3 ondernemingen

>