OpenAI zoekt nieuwe veiligheidsexperts voor zijn krachtigste AI-systemen. Het bedrijf biedt op het moment van schrijven tot 550.000 dollar per jaar voor specialisten die risicoās kunnen opsporen en beperken. De vacatures staan open in de VS, maar zijn ook relevant voor Europa door de nieuwe AI-verordening. Het doel is veiliger gebruik van ChatGPT en modellen zoals GPT-4.
OpenAI zoekt risicoprofielen
OpenAI werft experts om bedreigingen van zogeheten frontier-modellen te testen en te beheersen. Het gaat om functies in een veiligheidsteam dat extreme scenarioās onderzoekt. Denk aan misbruik, onverwacht gedrag of fouten in het algoritme. De focus ligt op het vroeg herkennen van risicoās en het verbeteren van noodmaatregelen.
Een deel van het werk is āred teamingā: gecontroleerde tests waarbij een systeem bewust onder druk wordt gezet. Zo blijkt waar de zwakke plekken zitten en welke beveiliging ontbreekt. Verder hoort bij de rol het opzetten van risico-analyses, rapportage en snelle respons bij incidenten. De resultaten moeten leiden tot strengere controles in de praktijk.
Het jaarsalaris kan oplopen tot 550.000 dollar, exclusief aandelen en bonus.
De functies zijn bedoeld voor mensen met ervaring in veiligheid, onderzoek of evaluatie van complexe datamodellen. OpenAI zoekt profielen die zowel technische testen als beleidsmatige afwegingen snappen. Kandidaten werken samen met productteams om eisen direct in te bouwen. Zo ontstaat minder losse reparatie achteraf en meer veiligheid aan de basis.
Focus op krachtige modellen
De werving richt zich op de nieuwste generaties van OpenAI, zoals GPT-4, GPT-4o en ChatGPT. Dit zijn frontier-modellen: zeer krachtige systemen die breed inzetbaar zijn. Ze kunnen tekst, code en soms beelden begrijpen en genereren. Juist door die brede inzet nemen mogelijke risicoās toe.
De belangrijkste zorgen gaan over misinformatie, fraude, hacking en misbruik van specialistische kennis. Evaluaties moeten laten zien wat een model wel en niet mag en kan. Daarbij horen duidelijke grenzen, filters en toezicht in het ontwerp. Het doel is veilig gedrag, ook bij creatieve of misleidende opdrachten van gebruikers.
Een probleem is dat er nog weinig gestandaardiseerde, openbare stresstests bestaan voor de meest geavanceerde systemen. Veel toetsen en datasets zijn intern of versnipperd. OpenAI zegt te investeren in betere metingen en benchmarks. Ook groeit de rol van externe audits, al staat die nog in de kinderschoenen.
Past in Europese regels
De Europese AI-verordening (AI Act) maakt strengere eisen voor aanbieders van generieke, zeer krachtige AI (GPAI met systemisch risico). Zij moeten risicoās beheren, testen, documenteren en ernstige incidenten melden. OpenAI valt met GPT-4 en opvolgers in deze categorie. Het aanstellen van veiligheidsspecialisten past bij die verplichtingen.
Voor Europa draait het niet alleen om techniek, maar ook om uitleg en controle. Leveranciers moeten transparant zijn over wat een model kan en waar grenzen liggen. Denk aan systeemkaarten, informatie over energieverbruik en evaluaties. Dat helpt toezichthouders en afnemers bij hun eigen risico-analyses.
Voor overheden en bedrijven in de EU, inclusief Nederland en BelgiĆ«, wordt inkoop strenger. āEuropese AI-verordening gevolgen overheidā betekent: demonstreren dat algoritmen veilig zijn toegepast en dat gegevensbescherming op orde is. Dat raakt ook ChatGPT Enterprise en API-gebruik. AVG-eisen zoals dataminimalisatie en versleuteling blijven onverminderd van kracht.
Wat gebruikers kunnen merken
Gebruikers van ChatGPT kunnen meer veiligheidslagen merken, zoals strengere filters op gevoelige themaās. Ook kan het systeem beter uitleggen waarom een verzoek wordt geweigerd. Foutieve of verzonnen antwoorden, vaak āhallucinatiesā genoemd, worden gerichter getest. Het resultaat moet minder schadelijke uitkomsten en duidelijkere grenzen geven.
Zakelijke klanten krijgen waarschijnlijk uitgebreidere documentatie over risicoās en controles. Denk aan rapporten met testresultaten en beleid per use-case. Dat helpt bij audits en bij interne compliance. Voor Europese klanten is dit nuttig bij aanbestedingen en interne toezichtprocessen.
Nieuwe functies kunnen iets later verschijnen door extra evaluaties. Maar de kwaliteit en voorspelbaarheid gaan omhoog. Voor sectoren zoals zorg, onderwijs en overheid telt betrouwbaarheid zwaarder dan snelheid. Een sterker toetsproces kan daar het verschil maken.
Schaarste drijft salarissen op
Het hoge salaris laat zien hoe schaars veiligheidstalenten zijn in kunstmatige intelligentie. Grote spelers zoals Anthropic, Google DeepMind en Meta werven hetzelfde profiel. Zij concurreren om specialisten in evaluatie, beveiliging en beleid. Dat jaagt de lonen en secundaire voorwaarden op.
Ook in Europa groeit de vraag, met namen als Mistral AI en Aleph Alpha. Daarnaast zoeken onderzoeksinstituten en toezichthouders naar AI-auditors. De markt vraagt mensen die techniek, ethiek en wetgeving kunnen combineren. Die mix is zeldzaam en kostbaar.
Overheden proberen intussen expertise op te bouwen via Europese projecten en kennisnetwerken. Samenwerking met universiteiten en standaardisatie-organen moet helpen. Meer open benchmarks en gedeelde tools kunnen de drempel verlagen. Zo hoeft niet elk team het wiel opnieuw uit te vinden.
Nog openstaande kwesties
Belangrijk blijft hoe transparant leveranciers zijn over hun methoden en fouten. Publicatie van testsets, meetmethoden en energiecijfers helpt onafhankelijke controle. Externe audits en bug-bountyprogrammaās kunnen gaten sneller blootleggen. Dat vergroot het vertrouwen bij burgers en instellingen.
Privacy is een tweede aandachtspunt, zeker bij veiligheidstesten. Testdata moeten voldoen aan de AVG, met zo weinig mogelijk persoonsgegevens. Versleuteling en toegangsbeheer zijn nodig om datalekken te voorkomen. Ook moeten datasets herleidbaarheid en bias beperken.
Een laatste vraag is hoe succes wordt gemeten. Heldere veiligheidsindicatoren en periodieke evaluaties zijn nodig. Europese toezichthouders zullen daarbij sturen op bewijs in plaats van beloften. Met meer publiek zicht op risicoās en maatregelen kan het debat volwassener worden.
