De Amerikaanse politicus Donald Trump waarschuwde voor de banenmarkt in 2026. Hij zei dat werkgevers veel “artificiële” systemen zullen inzetten in plaats van mensen. Dat vergroot de zorgen over automatisering en werk, ook in Europa. De Europese AI-verordening (AI Act) heeft gevolgen voor overheid en bedrijven die algoritmen voor werving en HR willen gebruiken.
Trump waarschuwt voor automatisering
Trump schetst een scenario waarin bedrijven minder mensen aannemen en meer taken aan software overlaten. Met “artificiële dingen” doelt hij op systemen met kunstmatige intelligentie, zoals zelflerende selectietools of chatbots. Zijn uitspraak past in een bredere discussie over productiviteit, kosten en banenverlies.
“We gaan veel ‘artificiële dingen’ aannemen.” — Donald Trump
Bedrijven gebruiken nu al generatieve tools zoals OpenAI’s ChatGPT, Google Gemini en Microsoft Copilot om teksten te schrijven, klantvragen te beantwoorden en code te testen. In HR komen ook selectiehulpen op basis van data op. Denk aan sollicitatiechatbots, cv-screening en geautomatiseerde assessments.
Een algoritme is een reeks regels die een computer stap voor stap uitvoert. Een taalmodel, zoals GPT-4 of Gemini, voorspelt woorden op basis van grote hoeveelheden tekst. Zulke modellen kunnen efficiënt zijn, maar ze maken ook fouten en hebben toezicht nodig.
AI-verordening raakt werving in 2026
De Europese AI-verordening classificeert systemen die beslissen over toegang tot werk als “hoog risico”. Dat betekent zwaardere eisen aan datakwaliteit, transparantie, menselijk toezicht en documentatie. Deze verplichtingen gaan vanaf 2026 in werking voor aanbieders en gebruikers van zulke systemen.
Leveranciers van HR-software, zoals Workday, SAP SuccessFactors, HireVue en LinkedIn, zullen technische dossiers en risicobeheersing moeten aantonen. Organisaties die deze systemen inkopen, worden mede verantwoordelijk voor correct gebruik en toezicht. Dit raakt zowel bedrijven als publieke instellingen, zoals gemeenten of uitvoeringsinstanties die personeel werven.
De verordening verbiedt bepaalde toepassingen, zoals biometrische indeling op basis van gevoelige kenmerken. Emotieherkenning op de werkvloer of in onderwijs wordt sterk beperkt. Voorbeeld: video-analyse die ‘motivatie’ of ‘eerlijkheid’ uit gezichtsuitdrukkingen afleidt is in Europa straks niet of nauwelijks toegestaan.
AVG beschermt werknemers tegen algoritmen
Naast de AI Act geldt de AVG. Die stelt dat geautomatiseerde beslissingen met grote gevolgen voor een persoon niet zonder menselijke tussenkomst mogen plaatsvinden. Bij afwijzing of selectie in sollicitaties is een menselijke, goed geïnformeerde herbeoordeling verplicht.
Werkgevers moeten transparant zijn over het gebruik van algoritmen in werving. Sollicitanten hebben recht op uitleg, inzage en correctie. Een Data Protection Impact Assessment (DPIA) is vaak vereist, omdat het gaat om gevoelige, risicovolle gegevensverwerking.
In Nederland ziet de Autoriteit Persoonsgegevens toe op naleving. Ondernemingsraden hebben op grond van het instemmingsrecht een rol bij invoering van nieuwe HR-systemen. Dat dwingt organisaties om vooraf te toetsen of het systeem eerlijk, uitlegbaar en noodzakelijk is.
Bedrijfsrisico’s en technische beperkingen
AI in werving kan partijdige uitkomsten geven als de trainingsdata eenzijdig of historisch bevooroordeeld zijn. Dat kan leiden tot onterechte uitsluiting van kandidaten. Validatie met actuele, representatieve data is daarom cruciaal.
Generatieve modellen zoals GPT-4 en Gemini bedenken soms onjuiste of verzonnen informatie. In een HR-context kan dat resulteren in onterechte redeneringen of onjuiste samenvattingen van cv’s. Zonder duidelijke regels en menselijke check is dat een juridisch en reputatierisico.
Ook ‘black box’-modellen zijn problematisch: gebruikers begrijpen niet altijd waarom de software iemand afwijst. De AI-verordening eist daarom logboeken, uitleg en controleerbare besliscriteria. Leveranciers zullen hun modellen vaker laten auditen en documenteren.
Nederlandse organisaties moeten nu handelen
Wie in 2026 compliant wil zijn, moet in 2025 al keuzes maken. Begin met een inventarisatie: waar gebruiken we nu algoritmen in werving en HR? Breng risico’s, datastromen en doelstellingen in kaart, en leg vast wie de menselijke eindverantwoordelijke is.
Kies leveranciers die documentatie, evaluaties en bias-tests delen. Vraag naar modelkaarten, datagovernance en mogelijkheden voor menselijke herbeoordeling. Betrek privacy officers, juristen en de ondernemingsraad vroeg in het proces.
Voor overheden gelden dezelfde regels, met extra aandacht voor transparantie en gelijke behandeling. Dit sluit aan bij de Nederlandse en Europese inzet op betrouwbare, mensgerichte technologie. Zo voorkomen organisaties dat automatisering de instroom van talent onterecht beperkt.
- Voer een DPIA en risicoanalyse uit voor elk HR-algoritme.
- Zorg voor dataminimalisatie, versleuteling en logging.
- Organiseer menselijke herbeoordeling bij belangrijke beslissingen.
- Test op bias met actuele, representatieve datasets.
- Leg leverancierscontracten vast met expliciete AI- en AVG-clausules.
