• Dave
  • april 22, 2026
  • Home
  • >
  • Blog
  • >
  • OpenAI en Google dwingen nieuwe deal tussen arbeid en kapitaal

Bedrijven in België en Nederland zetten kunstmatige intelligentie steeds breder in op de werkvloer. Werkgevers en vakbonden vragen om nieuwe afspraken tussen arbeid en kapitaal. De Europese AI-verordening (AI Act) verandert wat werkgevers en overheid mogen met algoritmen. De inzet van systemen als ChatGPT en Microsoft Copilot versnelt de discussie dit jaar.

Productiviteit zonder baanzekerheid

Kantoorsoftware met generatieve AI, zoals OpenAI’s ChatGPT, Google Gemini en Microsoft Copilot, belooft tijdwinst bij schrijven, samenvatten en coderen. Generatieve AI is software die zelf tekst, beeld of code maakt op basis van voorbeelden. De winst is zichtbaar in taken, maar niet altijd in hele functies. Daardoor verschuift werk binnen banen, in plaats van dat banen volledig verdwijnen.

Zonder afspraken kan de productiviteitswinst vooral bij het kapitaal belanden, via licenties, lagere loonkosten of hogere marges. Werknemers lopen dan risico op werkdruk, lagere kwaliteit van beoordeling en meer controle via dashboards. Dit heet algoritmisch management: software die werk toewijst, tempo bepaalt of prestaties beoordeelt. Het vergroot ongelijkheid als laagbetaalde taken sneller te automatiseren zijn dan hoogbetaalde taken.

Een “nieuwe deal” tussen arbeid en kapitaal draait hier om drie punten. Ten eerste: wie profiteert financieel van de AI-winst. Ten tweede: wie beslist over invoering, tempo en grenzen. Ten derde: hoe privacy en veiligheid van personeelsdata worden beschermd. Zonder deze pijlers dreigt weerstand, vertraging en juridisch risico.

Europese regels sturen AI-inzet

De AI Act plaatst AI in het personeelsdomein, zoals werving, beoordeling en ontslag, in de categorie hoog risico. Dat betekent eisen aan risicobeheer, datakwaliteit, documentatie en menselijk toezicht. Organisaties moeten vooraf toetsen of grondrechten in het gedrang komen, en processen inrichten om fouten te herstellen. Dit maakt haastige invoering zonder waarborgen lastig en juridisch riskant.

AI voor werving, beoordeling en ontslag valt in de hoog-risico categorie van de Europese AI-verordening.

De AVG blijft leidend voor personeelsdata: dataminimalisatie, duidelijke doelen, beveiliging en rechten van werknemers. Grote veranderingen vragen vaak om een gegevensbeschermingseffectbeoordeling, een DPIA. Voor overheden als werkgever gelden dezelfde regels; Europese AI-verordening gevolgen overheid betekenen extra documentatie en transparantie. Bij overtreding kunnen toezichthouders boetes opleggen en systemen stilleggen.

Leveranciers van generieke AI-modellen, zoals OpenAI, Google, Anthropic en Mistral AI, krijgen onder de AI Act transparantieplichten. Zij moeten informatie leveren over modelgrenzen, prestaties en gebruiksbeperkingen. Werkgevers blijven echter verantwoordelijk voor passend gebruik in HR-processen. Een veilige inzet vraagt dus om afspraken tussen leverancier, IT en medezeggenschap.

Werknemerszeggenschap over algoritmen

In Nederland heeft de ondernemingsraad op basis van de Wet op de ondernemingsraden instemmingsrechten bij nieuwe personeelsvolgsystemen. In België zijn er vergelijkbare rechten via de ondernemingsraad en het Comité voor Preventie en Bescherming op het Werk. Deze organen beoordelen impact op werkdruk, beoordeling en privacy. Zo ontstaat vroegtijdige toetsing, in plaats van corrigerende actie achteraf.

Goede cao-afspraken zetten standaarden voor “mens-in-de-lus”, uitleg bij besluiten en bezwaarprocedures. Ook beperken ze het gebruik van monitoringdata voor secundaire doelen, zoals disciplinaire maatregelen. Dat sluit aan op de AVG, die geautomatiseerde besluitvorming met grote gevolgen beperkt. Heldere regels voorkomen dat algoritmisch management de feitelijke chef wordt.

Bij inkoop van HR-software, zoals Workday of SAP SuccessFactors, kunnen werkgevers transparantie en auditfuncties eisen. Denk aan logboeken, uitlegbare scorekaarten en de mogelijkheid om aanbevelingen uit te zetten. Ook moeten leveranciers technische en organisatorische maatregelen bieden, zoals versleuteling en strikte toegangsrechten. Dit maakt naleving toetsbaar voor ondernemingsraad en toezichthouder.

Winsten eerlijker laten terugvloeien

Er zijn meerdere routes om AI-winst te delen met werknemers. Winstdeling of een bredere variabele beloning kan directe prikkels geven. Aandelenplannen en coöperatieve modellen vergroten zeggenschap, maar vragen goede governance. Belangrijk is dat beloning voorspelbaar en niet louter vrijblijvend is.

Scholing en tijd om te leren zijn harde voorwaarden voor brede productiviteitsgroei. Opleidingsbudgetten en sectorale fondsen kunnen vaardigheden in data, prompts en procesontwerp financieren. Werkgevers kunnen leercurves plannen in werktijd, niet erbovenop. Zo wordt AI geen extra laag werk, maar een hulpmiddel dat kwaliteit verhoogt.

In Europa lopen proeven met kortere werkweken als deel van het productiviteitspakket. Korter werken bij gelijk loon is één manier om technologische winst maatschappelijk te delen. Sectoren met krapte kunnen hiermee ook aantrekkelijker worden. Dit vergt wel heldere metingen en afspraken over resultaat.

Data als gedeeld kapitaal

Data en prompts van medewerkers voeden AI-systemen en creëren waarde. Bedrijven moeten vastleggen wie wat mag gebruiken, en hoe vertrouwelijke informatie wordt afgeschermd. Contracten en beleid horen duidelijk te zijn over intellectueel eigendom, hergebruik en bewaartermijnen. Zonder datakader ontstaan juridische gaten en reputatierisico’s.

Steeds meer organisaties kiezen voor interne modellen of Europese cloudoplossingen om AVG-risico’s te beperken. Open-modellen zoals Llama 3 (Meta) of systemen van Mistral AI kunnen on-premises draaien, met streng toegangsbeheer. Dit geeft controle over data en aanpasbaarheid van het model. De keerzijde is hogere beheerkosten en behoefte aan eigen expertise.

Let ook op auteursrecht en tekst- en datamining-regels bij het trainen van modellen. Rechtenhouders kunnen hergebruik beperken, wat invloed heeft op datasets en documentatie. Een zorgvuldig databeleid voorkomt claims en waarborgt kwaliteit. Transparantie richting personeel versterkt vertrouwen en verantwoord gebruik.

Plan van aanpak voor 2026

Begin met een gezamenlijke risico-inventarisatie van alle AI-toepassingen op de werkvloer. Classificeer systemen volgens de AI Act en bepaal welke hoog risico zijn. Leg daarna rollen, bevoegdheden en escalatieroutes vast. Betrek compliance, IT, HR en medezeggenschap vanaf de start.

Vervolg met concrete waarborgen: mens-in-de-lus, uitlegbaarheid en bezwaar. Maak DPIA’s voor gevoelige toepassingen en publiceer samenvattingen voor transparantie. Neem leveranciersverplichtingen op in contracten, inclusief auditrechten en incidentmeldingen. Test systemen in pilots met duidelijke stopknoppen.

Tot slot: regel een eerlijk verdelingsmechanisme van de productiviteitswinst. Combineer winstdeling met scholingstijd en, waar passend, kortere werktijden. Monitor uitkomsten met meetbare indicatoren voor kwaliteit, efficiency en welzijn. Zo wordt de “nieuwe deal” tussen arbeid en kapitaal concreet en toetsbaar.


About Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

>