EU grijpt in tegen AI die werknemers ontslaat om te weinig typen

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • EU grijpt in tegen AI die werknemers ontslaat om te weinig typen

Amsterdam, 19 december 2025 09:34 

De Europese Commissie bekijkt hoe werkgevers kunstmatige intelligentie inzetten om personeel te sturen en te controleren. Het gaat om algoritmen die productiviteit meten, zoals systemen die dagelijks het aantal toetsaanslagen en muisbewegingen tellen. Brussel wil bepalen welke regels gelden en hoe dit te handhaven is. Dit raakt direct aan de Europese AI-verordening (AI Act) en de gevolgen voor overheid en werkgevers, op het moment van schrijven nog in uitwerking.

Commissie onderzoekt toezicht

De Commissie richt zich op zogeheten algoritmisch management: personeel aansturen met datamodellen die werktempo en prestaties bijhouden. Aanleiding zijn zorgen over foutieve metingen en onterechte sancties, zoals een waarschuwing of ontslag bij ā€œte weinigā€ toetsen per dag. De vraag is of zulke praktijken te verenigen zijn met arbeidsrecht en privacy. Ook wil Brussel voorkomen dat AI-systeem besluiten neemt zonder menselijk oordeel.

De Europese AI Office, onderdeel van de Commissie, coƶrdineert de aanpak van dit soort systemen. Het kantoor werkt, op het moment van schrijven, aan richtsnoeren en toezichtsmethoden voor hoge-risico toepassingen. Nationale autoriteiten blijven intussen verantwoordelijk voor handhaving ter plekke. Dat betekent dat werkgevers straks zowel Europese als nationale regels moeten volgen.

Werkgevers gebruiken uiteenlopende tools voor prestatiemonitoring. Voorbeelden zijn Time Doctor, Hubstaff en Teramind, die schermactiviteit, toetsen en app-gebruik kunnen registreren. Zulke systemen beloven productiviteitscijfers, maar meten vaak alleen computeractiviteit. Niet elk beroep laat zich zo eerlijk of volledig in cijfers vangen.

Algoritmisch management is het sturen en beoordelen van werknemers door software die beslissingen of aanbevelingen doet op basis van data.

Keystroke-metriek is riskant

Toetsaanslagen en muisbewegingen zijn makkelijke meetpunten, maar zeggen weinig over kwaliteit van werk. Ze geven geen beeld van denkwerk, vergaderingen, klantcontact of pauzes. Een lage score kan dus foutief lijken als ā€œluiheidā€, terwijl iemand buiten het scherm werkt. Het risico op verkeerde conclusies is groot.

Daarbij spelen technische beperkingen. Activiteitsmeters missen context en maken fouten, bijvoorbeeld bij achtergrondprocessen of offline werk. Ook kunnen ze werknemers aanzetten tot ā€œschijnactiviteitā€, zoals nutteloze muisbewegingen. Dat schaadt motivatie en vertrouwen op de werkvloer.

Juridisch is het extra gevoelig als zulke metrieken leiden tot disciplinaire maatregelen. Ontslag of looninhouding op basis van ruwe logdata kan disproportioneel zijn. Rechters kijken streng naar bewijs, transparantie en hoor en wederhoor. Werkgevers moeten menselijke beoordeling en uitleg kunnen laten zien.

AI-verordening legt plichten op

De AI Act plaatst systemen voor werving en personeelssturing in de hoge-risico categorie. Dat betekent extra eisen voor risicobeheer, datakwaliteit, documentatie en menselijk toezicht. Leveranciers moeten kunnen aantonen dat hun model betrouwbaar is. Werkgevers moeten begrijpen wat het systeem wel en niet kan.

Transparantie is een kernpunt. Werknemers moeten weten dat een algoritme hen beoordeelt en hoe dat gebeurt. Ook moet er een menselijk aanspreekpunt zijn dat besluiten kan toetsen en corrigeren. Zonder deze waarborgen is inzet van het systeem in strijd met de verordening.

De verplichtingen van de AI Act gaan gefaseerd gelden, naar verwachting in 2026 voor de meeste hoge-risico systemen. Tot die tijd werken EU en lidstaten aan praktische handreikingen. Het Europese AI Office coƶrdineert dit, terwijl markttoezicht bij nationale autoriteiten ligt. Bedrijven die nu al investeren in naleving beperken later hun risico’s.

Privacyregels blijven leidend

Naast de AI Act geldt altijd de AVG. Die eist dataverwerking die noodzakelijk en proportioneel is. Continue monitoring met keyloggers is in principe niet toegestaan, behalve bij een zwaarwegend doel, zoals gerichte fraude-onderzoeken. Ook moeten werkgevers werknemers vooraf duidelijk informeren.

In Nederland wijst de Autoriteit Persoonsgegevens erop dat keyloggers bijna nooit mogen voor algemene productiviteitsmeting. Een Data Protection Impact Assessment (DPIA) is vaak verplicht bij personeelsmonitoring. Daarin moeten risico’s, noodzaak en minder ingrijpende alternatieven staan. Zonder DPIA is inzet van zulke tools kwetsbaar bij controle.

Verder heeft de ondernemingsraad instemmingsrecht bij de invoering van systemen die personeel volgen. Dat staat in de Wet op de ondernemingsraden. Werkgevers moeten daarbij het doel, de bewaartermijnen en de beveiliging van gegevens uitleggen. Ook moet toegang tot ruwe logdata strikt worden beperkt.

Gevolgen voor werkgevers en overheid

Organisaties doen er goed aan nu al hun AI- en monitoringsystemen te inventariseren. Breng in kaart welke datamodellen prestaties beĆÆnvloeden, en documenteer beslismomenten. Schrap overbodige metingen, zeker keyloggers en schermfilmers, als minder ingrijpende middelen bestaan. Stel duidelijke interne regels en train leidinggevenden in zorgvuldig gebruik.

Overheden en semipublieke instellingen vallen onder dezelfde regels. Zij verwerken vaak gevoelige gegevens en moeten daarom extra zorgvuldig zijn. Aanbestedingen voor productiviteitssoftware horen AI- en AVG-eisen expliciet te wegen. Denk aan menselijk toezicht, uitlegbaarheid en logging die gericht is op doelen, niet op constante controle.

Voor leveranciers biedt de AI Act een routekaart: bouw in controleerbaarheid, foutmarges en escalatie naar een mens. Lever duidelijke documentatie en schakel privacy by design in. Zonder deze elementen zullen inkopers in de EU steeds vaker afhaken. Handhaving en boetes maken de businesscase van ā€œblack boxā€-monitoring onhoudbaar.

Wat werknemers mogen verwachten

Werknemers hebben recht op informatie over algoritmen die hun werk beoordelen. Zij mogen uitleg vragen over gebruikte data en metrieken. Ook mogen zij bezwaar maken als de verwerking disproportioneel is. Een menselijke beoordeling blijft nodig bij impactvolle besluiten, zoals ontslag of promotie.

Vakbonden en ondernemingsraden spelen een rol in het afstemmen van grenzen. Goede afspraken voorkomen conflicten en rechtszaken. Heldere procedures rond fouten en beroep zijn essentieel. Dat vergroot vertrouwen en kwaliteit van beslissingen.

De inzet van AI kan nuttig zijn voor planning en veiligheid, maar vragen om nuance en context. Cijfers zonder duiding leiden tot verkeerd beleid. De huidige Europese aandacht maakt duidelijk: meten mag, maar niet gedachteloos. De lat voor eerlijk en transparant gebruik gaat omhoog.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>