OpenAI ontwijkt Nvidia: Broadcom schiet omhoog – wat zit er achter?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • OpenAI ontwijkt Nvidia: Broadcom schiet omhoog – wat zit er achter?

Amsterdam, 14 oktober 2025 10:07 

OpenAI werkt aan een eigen route voor AI-chips en kijkt daarbij naar Broadcom. Het bedrijf wil minder afhankelijk worden van Nvidia, dat nu de markt voor AI-processors domineert. In de VS leidde het nieuws deze week tot een sterke koersstijging van Broadcom, op het moment van schrijven. Dit kan invloed hebben op kosten, leveringszekerheid en de toepassing van AI in Europa, ook voor overheden onder de Europese AI-verordening.

OpenAI zoekt chip-alternatief

OpenAI onderzoekt samenwerkingen om een eigen AI-accelerator te ontwerpen. Zo’n maatwerkchip kan beter passen bij de werklast van ChatGPT en de grote taalmodellen van OpenAI. Grote technologiebedrijven doen dit vaker: Google bouwt TPU’s en Amazon heeft Trainium en Inferentia. OpenAI wil met een vergelijkbare stap de regie over prestaties en kosten vergroten.

De vraag naar rekenkracht groeit snel door training en gebruik van generatieve systemen. Training van een groot model kost veel chips, tijd en energie. Ook het dagelijks draaien van chatbots en spraakfuncties vraagt duizenden servers. Een eigen chip kan het aantal benodigde servers en het stroomverbruik per taak verlagen.

OpenAI draait zijn diensten grotendeels op Microsoft Azure. Een eigen chip moet daarom in die cloud passen, inclusief koeling, netwerk en software. Dat vraagt nauwe integratie en kan de uitrol vertragen, maar levert op termijn meer controle op de keten.

Broadcom profiteert op beurs

Het aandeel Broadcom stijgt op het moment van schrijven na berichten over een mogelijke chipdeal met OpenAI. Beleggers rekenen op extra omzet uit ontwerp, netwerkchips en geavanceerde verpakking van componenten. Broadcom heeft ervaring met klant-specifieke chips voor datacenters. Die kennis maakt het een logische partner voor een partij als OpenAI.

De markt reageert heftig omdat de vraag naar alternatieven voor Nvidia groot is. Chiptekorten en lange levertijden remmen AI-projecten. Een nieuwe leverancier kan druk zetten op prijzen en beschikbaarheid. Dat helpt zowel grote cloudaanbieders als start-ups die AI-diensten bouwen.

Voor Europese beleggers speelt ook de toeleveringsketen mee. Apparatuur van ASML en materiaalbedrijven in Europa profiteren van extra chipproductie bij foundries. Meer variatie in AI-hardware kan zo indirect werk en investeringen in de EU ondersteunen.

Minder afhankelijk van Nvidia

Nvidia levert nu het grootste deel van de trainingchips voor AI, met een sterk software-ecosysteem rond CUDA. Dat geeft hoge prestaties, maar zorgt ook voor afhankelijkheid. Leveringstijden en prijzen zijn lastig te beĆÆnvloeden zonder tweede bron. OpenAI wil die kwetsbaarheid verkleinen.

Een eigen of alternatieve chip doorbreekt het lock-in-effect. Het biedt onderhandelingsmacht en ruimte om hardware af te stemmen op specifieke modellen. Dat kan sneller itereren mogelijk maken, bijvoorbeeld voor multimodale functies of langere context in chatbots. De keerzijde is dat eigen chips tijd, geld en experts vragen.

Software blijft het struikelblok. Veel AI-code is geoptimaliseerd voor Nvidia. Overstappen vraagt aanpassingen in frameworks en drivers, zoals PyTorch, ONNX of eigen compilers. Zonder volwassen softwarestack haalt de hardware zijn potentie niet.

Techniek en kostenafweging

Een AI-accelerator is een gespecialiseerde processor voor machinelearning, zoals neurale netwerken. In plaats van algemene taken voert hij massaal dezelfde berekeningen uit, zoals matrixvermenigvuldiging. Dat maakt hem sneller en zuiniger voor AI. Het ontwerp heet vaak een ASIC: een application-specific integrated circuit.

Een AI-accelerator is een chip die rekenwerk voor algoritmen versnelt en energie per taak verlaagt, vergeleken met gewone processors.

Het bouwen van een ASIC vergt een ontwerpteam, licenties, validatie en productie bij een foundry, vaak TSMC. Daarna volgen verpakking en test, bijvoorbeeld met geavanceerde 2.5D-technieken. Dit traject duurt maanden tot jaren. Vertragingen zijn kostbaar en kunnen releases van nieuwe AI-functies uitstellen.

Aan de kostenkant is het een schaalspel. Nvidia’s chips zijn duur, maar direct inzetbaar en goed ondersteund. Een eigen chip vergt hoge startkosten, die zich pas terugbetalen bij grote volumes. Wie miljoenen accelerators nodig heeft, kan zo op lange termijn lagere stuksprijzen en stroomkosten bereiken.

Gevolgen voor EU en Nederland

Meer keuze in AI-hardware kan de prijs en beschikbaarheid van rekenkracht in Europa verbeteren. Dat is relevant voor overheden en onderwijs, die vaak in de cloud werken. De Europese AI-verordening stelt eisen aan aanbieders van generatieve systemen, zoals transparantie en risicobeheer. Lagere kosten helpen om die eisen breder en eerlijker toe te passen.

De AVG blijft leidend bij gegevensverwerking. Organisaties moeten dataminimalisatie toepassen en gevoelige data beschermen, ongeacht welke chip er draait. Contracten met cloudleveranciers horen versleuteling en locatie van opslag te borgen. Een diversere chipmarkt verandert die plichten niet, maar kan wel meer keus in infrastructuur bieden.

Voor Nederland speelt ook energie en ruimte in datacenters. Efficiƫntere chips kunnen het stroomverbruik per AI-taak verlagen, wat past bij klimaatdoelen. Tegelijk vraagt meer rekenkracht om netcapaciteit, koeling en mogelijk warmteterugwinning. Beleidskeuzes rond vergunningen en infrastructuur bepalen hoe snel deze groei verantwoord kan plaatsvinden.

Wat dit kan veranderen

Als OpenAI met Broadcom een werkende chip oplevert, ontstaat een serieuze tweede pijler naast Nvidia. Dat kan prijzen drukken en innovatie versnellen. AMD en andere spelers krijgen zo meer ruimte om mee te groeien. Uiteindelijk profiteert de eindgebruiker van snellere en goedkopere AI-diensten.

Lukt het niet, dan blijft Nvidia de norm en gaan levertijden en kosten de ontwikkeling sturen. Softwarecompatibiliteit wordt daarom de doorslaggevende factor. Bedrijven die hun modellen snel kunnen porten, winnen tijd. Wie vasthangt aan ƩƩn platform, loopt risico bij schaarste of prijsstijgingen.

Voor Europese beleidsmakers is dit een signaal om interoperabiliteit te stimuleren. Open standaarden en overdraagbare AI-werkstromen verkleinen lock-in. Dat maakt het makkelijker om aan de AI-verordening te voldoen Ʃn de digitale soevereiniteit te versterken.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>