OpenAI gaat voor het eerst een eigen AI-chip ontwerpen. Het bedrijf uit San Francisco wil zo minder afhankelijk worden van schaarse grafische processors en de kosten verlagen. De stap komt nu de vraag naar rekenkracht voor ChatGPT en het multimodale model GPT-4o snel groeit. Dit kan ook gevolgen hebben voor Europese cloudbedrijven en beleid rond de AI-verordening en energieverbruik.
OpenAI kiest eigen silicium
OpenAI wil een speciale chip bouwen die is afgestemd op het draaien en trainen van zijn modellen. Een AI-chip is een processor die is ontworpen voor rekenwerk van algoritmen, zoals matrixbewerkingen. Daarmee kan het systeem sneller en zuiniger werken dan met standaardchips. Het doel is lagere kosten per aanvraag in ChatGPT en meer controle over de keten.
Eigen hardware geeft OpenAI meer grip op capaciteit en planning. Dat helpt bij piekgebruik, bijvoorbeeld na productlanceringen of in onderwijsperiodes. Het bedrijf kan de chip optimaliseren voor GPT-4o en opvolgers. Denk aan snellere multimodale functies, zoals beeld en spraak tegelijk.
Ook strategisch telt dit mee. Grote technologiebedrijven bouwen al jaren maatwerkchips. OpenAI sluit met deze stap aan bij concurrenten die hun eigen rekenplatform hebben.
Afhankelijkheid van Nvidia daalt
Tot nu toe draait de meeste generatieve AI op GPU’s van Nvidia. Een GPU is een grafische processor die veel berekeningen tegelijk kan doen. Deze chips zijn duur en schaars, wat de groei kan remmen. Met een eigen ontwerp hoopt OpenAI de aanvoer te stabiliseren en de marge te verbeteren.
De markt voor AI-accelerators is sterk geconcentreerd. Dat maakt bedrijven gevoelig voor prijsstijgingen en langere levertijden. Minder afhankelijkheid kan ook de onderhandelingspositie verbeteren. Voor gebruikers kan dit later leiden tot snellere diensten of lagere prijzen.
Nvidia heeft op het moment van schrijven naar schatting ruim 80% van de markt voor AI-accelerators in handen.
OpenAI volgt hiermee een breder patroon in de sector. Google gebruikt al jaren eigen TPU-chips voor Bard en Gemini. Amazon Web Services biedt Trainium en Inferentia voor klanten in de cloud. Microsoft bouwt de Maia-accelerator voor Azure, die ook partners van OpenAI kan ondersteunen.
Productie buiten eigen fabriek
OpenAI bouwt geen eigen fabriek, maar ontwerpt de chip en laat die produceren. Zulke fabrieken heten foundries en staan vooral in Azië. Bekende partijen zijn TSMC in Taiwan en Samsung in Zuid-Korea. Dat is de gebruikelijke route voor chipontwerpers zonder eigen productielijn.
De Europese chipketen speelt op de achtergrond mee. ASML uit Veldhoven levert de lithografiesystemen waarmee de allerkleinste structuren op chips worden geprint. Zonder deze machines kunnen geavanceerde AI-chips niet worden gemaakt. Hiermee heeft Nederland een sleutelpositie in de wereldwijde keten.
De EU probeert met de Europese Chips Act meer productie en ontwerp naar Europa te halen. Dit beleid moet de afhankelijkheid van Azië en de VS verkleinen. Een grotere Europese capaciteit kan op termijn ook AI-bedrijven in de EU helpen. Dat maakt de infrastructuur minder kwetsbaar voor geopolitieke schokken.
Impact op kosten en energie
Een eigen chip kan de kosten per AI-verzoek verlagen, vooral bij zogenoemde inferentie. Inferredie is het draaien van een getraind model om een antwoord te geven. Als de chip beter is afgestemd op GPT-4o, kan dat per watt meer antwoorden opleveren. Dat scheelt in stroom en koeling, zeker op grote schaal.
De energievraag blijft een punt van zorg in Europa en Nederland. Datacenters hebben te maken met netcongestie en strenge vergunningen. Lagere energie per berekening helpt om binnen grenzen te blijven. Dit past bij duurzaamheidsdoelen van bedrijven en overheden.
Voor Europese klanten kan lokalisatie belangrijk zijn. Als OpenAI-partners efficiëntere hardware inzetten in EU-datacenters, kan de latency dalen. Ook kan het eenvoudiger worden om aan interne CO2-doelen te voldoen. Voor publieke instellingen tellen zulke praktische voordelen mee bij aanbestedingen.
Europese regels blijven leidend
De Europese AI-verordening (AI Act) richt zich op risico’s van AI-toepassingen, niet op de chips zelf. Toch heeft snellere en goedkopere hardware indirect effect op naleving. Meer rekenkracht maakt het haalbaar om extra waarborgen te draaien, zoals auditing of detectie van misbruik. Dat helpt bij hoogrisico-toepassingen in zorg, overheid en onderwijs.
Ook de AVG blijft een randvoorwaarde bij het gebruik van modellen in de EU. Dataminimalisatie en versleuteling moeten standaard zijn, ongeacht de chip. Snellere hardware kan privacybescherming zoals versleutelde inferentie ondersteunen. Daarmee wordt veiligheid minder snel een rem op performance.
Voor Nederlandse overheden en publieke diensten is dit een strategische kwestie. Efficiëntere AI-infrastructuur kan de kosten per burgerdienst verlagen. Tegelijk vraagt het om duidelijke inkoopcriteria rond energie, privacy en transparantie. De AI-verordening en aanbestedingsregels geven daar op het moment van schrijven steeds meer houvast.
Veel blijft nog onzeker
OpenAI heeft geen details gedeeld over het type chip, de partnerfabriek of de exacte timing. Belangrijke keuzes zijn of het een GPU-achtig ontwerp wordt of een vaste functiechip, een zogenoemde ASIC. Een ASIC is sneller en zuiniger voor één taak, maar minder flexibel. De keuze hangt af van de mix tussen training en inferentie.
Ook de softwarelaag wordt bepalend. Het ecosysteem rond CUDA en PyTorch is sterk, en overstappen kost tijd. OpenAI zal daarom tools moeten bieden die ontwikkelaars weinig frictie geven. Anders gaat de winst in hardware verloren in software.
Tot slot zijn leveringsrisico’s niet weg. Grondstoffen, productiecapaciteit en geopolitiek blijven een factor. De markt schommelt bovendien met elke nieuwe modelgeneratie. Dat maakt fasering en schaalbare productieplannen cruciaal voor succes.
