Frans Timmermans in Twente: pleit voor strenge AI-wetten en toezicht

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Frans Timmermans in Twente: pleit voor strenge AI-wetten en toezicht

Amsterdam, 15 oktober 2025 15:43 

Frans Timmermans, op het moment van schrijven politiek leider van GroenLinks-PvdA, pleit tijdens een bezoek aan Twente voor strenge wetten voor kunstmatige intelligentie. Hij wil snelle invoering en handhaving van de Europese AI-verordening (AI Act) en extra nationale regels waar nodig. Doel is burgers, werknemers en publieke diensten te beschermen tegen misbruik van algoritmen en deepfakes. Daarmee schuift ook de vraag naar voren wat de Europese AI-verordening betekent voor de gevolgen overheid en bedrijven.

Strenge regels en handhaving

Timmermans vraagt om heldere wettelijke grenzen voor AI, met harde waarborgen voor privacy en gelijke behandeling. Hij benadrukt dat regels niet alleen op papier moeten bestaan, maar ook strikt moeten worden gehandhaafd. Dat moet voorkomen dat grote platforms en modelbouwers zelf de norm bepalen.

Transparantie staat daarbij centraal: wie een AI-systeem inzet, moet kunnen uitleggen hoe het werkt en welke data zijn gebruikt. Kunstmatige intelligentie is software die zelfstandig patronen leert en beslissingen voorspelt; dat maakt controle noodzakelijk. Zonder inzicht en toezicht kunnen fouten zich snel en breed verspreiden.

De oproep richt zich op het kabinet en de Tweede Kamer om tempo te maken met nationale uitwerking van EU-regels. Ook wordt gevraagd om middelen voor toezicht en voorlichting aan bedrijven en overheden. Zo worden boetes en audits een reƫle prikkel om veilig te ontwikkelen en in te zetten.

Europese AI-verordening centraal

De AI Act deelt AI-toepassingen in risicoklassen, met zwaardere eisen naarmate de impact groter is. Hoog-risico-systemen, zoals algoritmen voor selectie van personeel of kredietwaardigheid, moeten aan strikte normen voldoen. Denk aan menselijke controle, kwaliteitsdata en een goed risico- en kwaliteitsmanagementsysteem.

De AI-verordening onderscheidt verboden, hoog risico, beperkt risico en laag risico. Hoe hoger het risico, hoe zwaarder de verplichtingen.

Voor algemene AI-modellen (general-purpose), zoals GPT-4 van OpenAI, Gemini van Google en Llama van Meta, gelden eigen regels. Leveranciers moeten veiligheidsonderzoek doen, documentatie publiceren en maatregelen nemen tegen misleiding, zoals duidelijke labeling van synthetische media. Dat helpt tegen deepfakes en foutieve output die als feit kan worden gezien.

Op het moment van schrijven treden delen van de AI Act gefaseerd in werking. Verboden praktijken gaan eerder gelden, terwijl uitgebreide eisen voor hoog-risico pas later verplicht worden. Organisaties moeten nu al inventariseren welke systemen binnen hun portefeuille onder welke risicoklasse vallen.

Nederland wil strenger toezicht

In Nederland zullen meerdere toezichthouders een rol krijgen bij de AI-handhaving. De Autoriteit Persoonsgegevens (AP) let op privacy en dataminimalisatie onder de AVG, en de Autoriteit Consument & Markt (ACM) kijkt naar misleiding en oneerlijke concurrentie. De Rijksinspectie Digitale Infrastructuur (RDI) kan toezien op technische eisen en veilig gebruik.

Heldere coƶrdinatie is nodig om dubbel werk en gaten in toezicht te voorkomen. EƩn loket voor vragen van bedrijven en overheden kan drempels verlagen. Zo wordt sneller duidelijk welke normen gelden en wie toetst.

Overheden werken daarnaast aan meer openheid over algoritmen in dienstverlening. Een openbaar algoritmeregister helpt burgers en raadsleden mee te kijken. Dit sluit aan op de AI Act, die uitleg en documentatie verplicht stelt bij hoog-risico-toepassingen.

Gevolgen voor overheid

Gemeenten, UWV en zorginstellingen gebruiken steeds vaker datamodellen in klantcontact, toekenning en handhaving. Onder de AI Act moeten hoog-risico-systemen vooraf beoordeeld worden en voorzien zijn van menselijke controle. Daarbij blijft de AVG leidend voor dataminimalisatie, beveiliging en transparantie.

Voor elk nieuw algoritme met impact is een DPIA nodig: een gegevensbeschermingseffectbeoordeling. Dit brengt risico’s in kaart en borgt passende maatregelen. Zonder DPIA en duidelijke grondslag mag een systeem niet in productie.

Inkoop verandert ook: overheden moeten in contracten eisen dat leveranciers voldoen aan AI- en privacyregels. Denk aan conformiteitsbeoordelingen, technische documentatie en incidentmeldingen. Zo verschuift compliance naar de hele keten, van modelbouwer tot implementatiepartner.

Risico’s voor burgers en werk

Deepfakes en synthetische beelden kunnen verkiezingen en publieke debatten verstoren. Daarom zijn duidelijke labels, watermerken en snelle verwijderprocedures nodig. Platforms vallen onder de Europese Digital Services Act en moeten proactief risico’s beperken.

Op de werkvloer rukt AI-surveillance op, zoals monitoringsoftware en productiviteitsscores. Dit kan botsen met de AVG en arbeidsrecht, zeker zonder noodzaak en transparantie. Werknemers moeten weten wat er gemeten wordt en kunnen bezwaar maken.

AI bij selectie en beoordeling kan discriminatie versterken als trainingsdata scheef zijn. De AI Act verplicht tot bias-tests, uitleg en menselijke tussenkomst bij hoog-risico-toepassingen. Werkgevers doen er goed aan dat nu al in hun HR-processen te verankeren.

Kaders voor Twentse innovatie

Twente is een regio met veel tech en maakindustrie, waar AI in productie en robotica snel doorbreekt. Duidelijke regels geven bedrijven zekerheid en versnellen adoptie. Dat voorkomt kostbare herbouw wanneer later alsnog aanpassingen nodig zijn.

Kleine en middelgrote bedrijven hebben behoefte aan praktische hulpmiddelen, zoals modelkaarten, standaard DPIA’s en testfaciliteiten. De AI Act voorziet in Europese en nationale ā€œregulatory sandboxesā€ om veilig te experimenteren. Toegang tot zulke proeftuinen verlaagt kosten en risico’s.

Onderwijs en onderzoeksinstellingen kunnen hierbij trainen en certificeren, samen met sectororganisaties. Zo groeit het aanbod van mensen die AI veilig kunnen ontwikkelen en beheren. Dat is nodig om concurrentiekracht en vertrouwen te behouden.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>