OpenAI, het bedrijf achter ChatGPT, wil dit jaar zijn personeelsbestand verdubbelen. Het gaat om nieuwe functies in onderzoek, veiligheid, infrastructuur en verkoop, verdeeld over de VS en Europa. De stap moet de ontwikkeling van nieuwe modellen en diensten versnellen en betrouwbaarder maken. De uitbreiding valt samen met de invoering van de Europese AI-verordening (AI Act), met gevolgen voor overheid en bedrijven die AI inzetten.
OpenAI verdubbelt banen
OpenAI wil in de komende maanden fors meer mensen aannemen. Het bedrijf zoekt onderzoekers, ingenieurs, veiligheidsexperts en commerciële teams. De werving richt zich op meerdere landen en tijdzones, zodat diensten rond de klok beschikbaar zijn. Daarmee wil OpenAI sneller nieuwe functies voor ChatGPT en andere producten leveren.
De groei is gericht op de ontwikkeling van zogeheten foundation models, de basismodellen waarop toepassingen draaien. OpenAI werkt op het moment van schrijven met modellen zoals GPT-4o en de redenerende o1-serie. Meer mensen zijn nodig om deze systemen te trainen, te testen en te beveiligen. Ook het beheer van de onderliggende rekeninfrastructuur vraagt extra capaciteit.
De verdubbeling betekent een zichtbare opschaling van interne processen. Denk aan strengere kwaliteitscontroles, betere documentatie en snellere incidentrespons. Zulke stappen zijn nodig om fouten en uitval te beperken bij miljoenen gebruikers. Ze verkleinen ook de doorlooptijd tussen experiment en product.
Focus op producten en snelheid
OpenAI wil de tijd tussen idee en uitrol van functies in ChatGPT verkorten. Gebruikers vragen vooral om lagere wachttijden, stabielere antwoorden en betere integraties met werksoftware. Meer teams moeten zorgen voor kortere ontwikkelsprints en snellere validatie. Dat kan de aanvoer van nieuwe functies gelijkmatiger maken.
Ook zakelijke diensten zoals ChatGPT Enterprise en Teams vragen om opschaling. Bedrijven willen garanties over privacy, logging en ondersteuning. Extra accountmanagers en integratiespecialisten kunnen implementaties versnellen. Zo groeit OpenAI mee met de vraag naar veilige, beheerbare AI op de werkvloer.
Een groter veiligheidsteam moet de kans op hallucinaties en misbruik verder verkleinen. Hallucinaties zijn onjuiste of verzonnen antwoorden van een model. Door vooraf streng te testen en filters te verbeteren, kan de foutmarge omlaag. Dat is nodig voor toepassingen in onderwijs, zorg en overheid.
Europa telt nadrukkelijk mee
OpenAI heeft op het moment van schrijven kantoren in Londen en Dublin. Vanuit die locaties ondersteunt het bedrijf Europese klanten en overheden. Extra Europese teams moeten lokale talen en regels beter afdekken. Dat helpt bij aanbestedingen en implementaties met “Europese AI-verordening gevolgen overheid”.
De AVG blijft leidend voor privacy. Betaalde diensten van OpenAI gebruiken klantdata standaard niet voor het trainen van modellen, wat past bij dataminimalisatie. Eenvoudige opties voor inzage, verwijdering en opt-outs zijn nodig om aan de regels te voldoen. Eerdere kritiek van toezichthouders, zoals in Italië, heeft geleid tot extra transparantie en leeftijdscontroles.
Voor Nederland ligt de nadruk op veilige inzet in publieke sector en onderwijs. Heldere documentatie in het Nederlands en toetsbare risicorapporten maken inkoop eenvoudiger. Lokale moderatie in het Nederlands helpt misinformatie en haatzaaien sneller te filteren. Dat is relevant in aanloop naar verkiezingen en bij digitale dienstverlening.
AI-verordening vergroot verplichtingen
De AI Act treedt gefaseerd in werking vanaf 2025. OpenAI valt met generieke modellen in de categorie General-Purpose AI, met extra plichten als er sprake is van systeemrisico. Dat betekent uitgebreidere technische documentatie, risicobeheer en transparantiemaatregelen. Ook moeten er processen zijn voor incidentmelding en beveiliging.
Concreet vraagt dit om multidisciplinaire teams: juristen, veiligheidsexperts, auditors en engineers. Zij moeten herkomst van trainingsdata vastleggen, evaluaties publiceren en inhoudsfilters onderhouden. Voor generatieve functies, zoals beeld en audio, speelt ook watermerken en detectie. Al deze stappen vergen blijvende capaciteit en tooling.
De AI‑verordening deelt systemen in risicoklassen en legt extra plichten op aan generieke AI met systeemrisico, zoals veiligheidscontroles, rapportage en technische documentatie.
Voor Nederlandse organisaties betekent dit dat zij bij inkoop van ChatGPT-diensten om conformiteitsbewijzen en risicorapporten kunnen vragen. Ook een data protection impact assessment (DPIA) blijft raadzaam onder de AVG. Heldere contracten over data-opslag, versleuteling en logging zijn essentieel. Zo komt techniek en beleid bij elkaar in de praktijk.
Schaarste aan talent en chips
De wervingsambitie botst op een krappe arbeidsmarkt voor AI-specialisten. Concurrenten als Google, Meta, Anthropic en Europese spelers zoals Mistral dingen om hetzelfde talent. Dat drijft salarissen op en verlengt doorlooptijden. Remote-werk kan helpen, maar vraagt strakke beveiliging en tooling.
Ook hardware blijft een knelpunt. Geavanceerde GPU’s zijn schaars en duur, en datacenters vragen veel stroom en koeling. Europese duurzaamheidseisen en netcongestie maken nieuwe capaciteit plannen complexer. De Europese Chips Act kan op termijn helpen, maar biedt weinig snelle verlichting.
Als groei te snel gaat, kunnen kwaliteit en support onder druk komen. Een gefaseerde aanpak met duidelijke prioriteiten verkleint dat risico. Partnerschappen met cloudleveranciers en universiteiten kunnen de druk verlagen. Zo houdt OpenAI ruimte om tegelijk te schalen en te voldoen aan Europese regels.
