Geoffrey Hinton, winnaar van de Turing Award, waarschuwt deze week opnieuw voor de risico’s van kunstmatige intelligentie. Hij stelt dat systemen zoals ChatGPT en Grok de rijkdom bij techbedrijven concentreren, terwijl veel mensen hun baan verliezen. Vooral bedrijven van Elon Musk en andere Amerikaanse grootmachten zouden profiteren. De Europese AI-verordening en de gevolgen voor overheid en werkgevers komen daarbij direct in beeld.
Ongelijkheid groeit door AI
Hinton ziet een kloof ontstaan tussen de eigenaren van grote datamodellen en werknemers die worden vervangen. Generatieve AI is software die nieuwe tekst, beeld of code maakt op basis van grote hoeveelheden voorbeelden. Wie de data, chips en cloud bezit, kan de markt naar zich toe trekken. Dat vergroot economische macht bij een kleine groep bedrijven.
“Musk wordt rijker, mensen raken werkloos,” aldus Geoffrey Hinton, die waarschuwt voor concentratie van welvaart door generatieve AI.
De kosten om zulke modellen te trainen zijn hoog en vragen om gespecialiseerde chips en datacenters. Dat geeft een voordeel aan partijen als xAI (Grok), OpenAI (ChatGPT), Google (Gemini) en Microsoft (Copilot). Schaal levert betere prestaties én lagere prijzen op voor wie groot inkoopt. Kleinere spelers en start-ups kunnen moeilijk meekomen.
Voor Europa speelt ook digitale soevereiniteit. Lidstaten willen minder afhankelijk zijn van Amerikaanse clouds en rekenkracht. Projecten rond Europese cloudstandaarden en open modellen moeten het speelveld verbreden. Toch blijft toegang tot data en GPU’s de bottleneck.
Banen onder druk
Hinton verwacht dat algoritmen vooral routinetaken overnemen. Denk aan klantenservice, basale programmeerwerkzaamheden en administratieve processen. Tools als ChatGPT, Copilot en Gemini versnellen werk, maar maken sommige functies ook overbodig. Dit raakt uitzendwerk en ondersteunende diensten als eerste.
In media, vertaalwerk en marketing is de impact al zichtbaar. Tekst- en beeldgeneratoren leveren snelle concepten, waardoor minder uren nodig zijn. Kwaliteitscontrole blijft nodig, maar productie verschuift. Werkgevers herzien teams en investeren in AI-vaardigheden.
Ook in Nederland kijken banken, gemeenten en uitvoeringsorganisaties naar procesautomatisering. Dat kan wachttijden verkorten en kosten beperken. Maar het vraagt herplaatsing, bijscholing en duidelijke afspraken met ondernemingsraden. Zonder plan groeit onzekerheid op de werkvloer.
AI-verordening stuurt gebruik
De Europese AI-verordening (AI Act) zet strikte regels voor risicovolle systemen. Toepassingen die over werk en toegang tot publieke diensten gaan vallen veelal in de categorie hoog risico. Dat betekent testen, menselijk toezicht en duidelijke documentatie. Voor generatieve basismodellen (GPAI) gelden extra plichten rond veiligheid en transparantie.
Voor Nederlandse overheden zijn de gevolgen concreet. Beslissoftware moet uitlegbaar zijn en burgers moeten bezwaar kunnen maken. Dat sluit aan bij de AVG, die dataminimalisatie en beveiliging eist. Onzorgvuldig trainen met persoonsgegevens kan boetes opleveren.
Werkgevers die AI inzetten voor performance, selectie of roostering moeten extra alert zijn. Profilering en geautomatiseerde besluitvorming vragen juridische grondslag en zorgvuldigheid. Heldere informatie aan medewerkers is verplicht. Een interne AI-toets helpt risico’s tijdig te vinden.
Macht bij enkele spelers
De markt voor generatieve AI draait op dure rekenkracht en veel data. xAI werkt aan Grok en bouwt aan eigen supercomputers, terwijl Microsoft OpenAI ondersteunt via Azure. Google koppelt Gemini aan zijn zoek- en cloudplatform, en Meta duwt Llama als open model. Mistral bouwt aan Europese alternatieven, maar worstelt met schaal.
Deze concentratie vergroot de afhankelijkheid van leveranciers. Dat maakt overstappen lastig en kan prijzen en voorwaarden sturen. De Europese mededingingsregels en de Digital Markets Act moeten dit inperken. Toch blijft de praktijk weerbarstig zonder sterke interoperabiliteit.
Open modellen lijken een tegenwicht, maar vragen eigen expertise en beveiliging. Organisaties moeten afwegen of on-premise of hybride gebruik haalbaar is. Publieke instellingen kunnen aanbestedingen gebruiken om open standaarden af te dwingen. Dat vergroot keuzevrijheid en controle over data.
Beleid voor eerlijke overgang
Hinton’s waarschuwing raakt aan verdeling van de productiviteitswinst. Beleidsopties zijn scholingsvouchers, fiscale prikkels voor omscholing en een “automatiseringsdividend” dat werknemers mee laat delen. ESF+-middelen en nationale fondsen kunnen dit steunen. Sectorale cao’s kunnen afspraken vastleggen over inzet van AI en baanzekerheid.
Transparantie is een basisvoorwaarde. Een publiek algoritmeregister, zoals in Amsterdam, kan landelijk worden uitgebreid. Het Rijksalgoritmekader biedt handvatten voor ontwerp en controle. Onafhankelijke audits vergroten vertrouwen.
Ook bedrijven kunnen nu al handelen. Voer een interne AI-policy in, met etikettering van AI-gegenereerde output en menselijk nazicht. Meet niet alleen snelheid, maar ook foutkansen en bias. Zet opleidingsbudget klaar voordat functies worden aangepast.
Wat dit betekent voor Nederland
Voor werkgevers: start met een risicobeoordeling per AI-toepassing en betrek de ondernemingsraad. Houd rekening met de AI Act en de AVG bij selectie, planning en prestatiemeting. Kies waar mogelijk voor interoperabele oplossingen om lock-in te voorkomen. Leg inkoopvoorwaarden vast over data-eigendom en auditrechten.
Voor overheden: pas het Rijksalgoritmekader toe en publiceer systemen in een algoritmeregister. Classificeer toepassingen onder de AI Act en borg menselijk toezicht. Beperk persoonsgegevens en versleutel waar nodig. Informeer burgers helder over rechten en bezwaren.
Voor werknemers: investeer in AI-vaardigheden en data-geletterdheid. Gebruik hulpmiddelen zoals Copilot en Gemini met oog voor privacy en kwaliteitscontrole. Vraag om transparantie over algoritmes die je werk sturen. Maak gebruik van scholingsbudgetten en sectorfondsen.
