Nvidia heeft een voorgenomen megadeal met OpenAI ter waarde van ongeveer 100 miljard dollar geschrapt. Het ging om een meerjarige afspraak voor levering van AI-hardware en infrastructuur in de Verenigde Staten. Het besluit viel deze week, op het moment van schrijven zonder officiële toelichting. Naar verwachting speelt druk op levering, prijsrisico en afhankelijkheid van één klant een rol.
Nvidia kiest voor spreiding
Met het afblazen van de afspraak houdt Nvidia meer capaciteit vrij voor meerdere klanten. Grote afnemers zijn onder meer Microsoft Azure, Amazon Web Services, Google Cloud, Meta en Oracle. Zo spreidt het bedrijf risico’s en blijft het minder afhankelijk van één partij. Dat is belangrijk in een krappe markt voor geavanceerde AI-chips.
De levering van AI-chips hangt af van schaarse onderdelen zoals HBM-geheugen en geavanceerde chipproductie. HBM is snel werkgeheugen dat direct op of naast de processor is gestapeld. Het beperkt de hoeveelheid rekenwerk als het niet beschikbaar is. Beperkingen in de keten dwingen leveranciers tot lastige keuzes over wie wat krijgt, en wanneer.
Nvidia wil daarnaast prijzen en marges beschermen in een markt die snel beweegt. Een deal van deze omvang zou prijzen voor jaren kunnen vastzetten. Dat kan nadelig zijn als kosten van componenten dalen of als er nieuwe producten komen. Door flexibiliteit te houden kan Nvidia sneller meebewegen met de vraag.
Welke exacte producten in de megadeal zaten is niet publiek. Marktpartijen noemen recente generaties zoals H200 en Blackwell GB200 als waarschijnlijk. Zulke systemen komen met complete rek- en netwerkoplossingen, niet alleen losse chips. Dat maakt het contract groot en complex.
OpenAI zoekt alternatieven
Voor OpenAI betekent dit minder zekerheid over toekomstige rekenkracht. Het bedrijf draait nu vooral op Microsoft Azure voor modellen als GPT. Microsoft bouwt eigen AI-servers en zet ook chips van AMD in. Daardoor heeft OpenAI een tweede route naast Nvidia.
OpenAI werkt aan steeds grotere datamodellen, wat veel rekencapaciteit vraagt. Minder vaste leveringszekerheid kan plannen vertragen of duurder maken. Alternatieven zijn inkopen bij meerdere cloudproviders of inzetten op efficiëntere modellen. Ook kan het bedrijf rekenen spreiden over meer regio’s.
Voor grote infrastructuurprojecten zoals eigen datacenters verhoogt dit de drempel. Vastleggen van chipvolumes is daar normaal gesproken een randvoorwaarde. Zonder harde toezeggingen stijgt het financieringsrisico. Dat weegt mee bij onderhandelingen met investeerders en partners.
In Europa kan dit gevolgen hebben voor de beschikbaarheid in EU-regio’s van Azure en andere clouds. OpenAI en partners zullen capaciteit strategischer verdelen. Daarbij tellen latency, energiekosten en regelgeving mee. Europese datacenters kunnen daardoor zowel kansen als tekorten zien.
Effect op Europese markt
De annulering kan op korte termijn juist ruimte geven voor Europese klanten. Als Nvidia geen megaorder hoeft te vullen, komen er mogelijk meer systemen vrij voor OVHcloud, Deutsche Telekom en lokale aanbieders. Ook onderzoeksfaciliteiten zoals EuroHPC-systemen kunnen eerder aan de beurt zijn. Dat helpt projecten in zorg, onderwijs en overheid.
Voor Nederland is de timing relevant door plannen voor nieuwe rekenhubs. Partijen als SURF en commerciële datacenters in onder meer Eemshaven kijken naar uitbreiding. Meer leveringsruimte kan wachttijden verkorten. Tegelijk blijven energie- en vergunningsregels een beperkende factor.
De Europese AI-verordening (AI Act) vergroot de behoefte aan test- en auditcapaciteit. Hoogrisico-toepassingen moeten extra controles doorlopen, wat extra rekentijd kost. Meer, en vooral voorspelbare, capaciteit helpt instellingen en bedrijven om te voldoen. Gebrek aan capaciteit kan implementaties vertragen of duurder maken.
Ook de AVG blijft een randvoorwaarde bij het trainen van modellen op Europese data. Dat vraagt om dataminimalisatie en versleuteling in de hele keten. Als rekenwerk naar andere regio’s verschuift, wordt naleving complexer. Lokale capaciteit maakt compliance eenvoudiger en beter te controleren.
Prijzen en concurrentie chips
Zonder megadeal ontstaat mogelijk meer prijsdruk in de markt. AMD wint terrein met alternatieve AI-accelerators, wat klanten een onderhandelingspositie geeft. Meer concurrentie kan de kosten per rekeneenheid verlagen. Dat is gunstig voor Europese startups en onderzoeksinstellingen met beperkte budgetten.
Toch blijven kosten hoog door krapte in HBM en geavanceerde packaging. Fabrikanten verhogen capaciteit, maar dat duurt maanden tot jaren. Daardoor zullen prijzen waarschijnlijk slechts langzaam dalen. Contracten met gemengde leveranciers zijn in deze fase realistischer dan grote all-in-deals.
Nvidia heeft daarnaast een sterk software-ecosysteem met CUDA. Dat is een laag die taken slim verdeelt over veel chips. Het ecosysteem bindt klanten en vergroot overstapkosten. Dit effect remt concurrentie en houdt prijzen hoger dan strikt technisch nodig.
“HBM is gestapeld, supersnel geheugen direct naast de chip; zonder HBM kan een AI-processor zijn rekenkracht niet volledig benutten.”
Toezicht en Europese regels
De EU kijkt scherper naar marktmacht in de AI-infrastructuur. De Europese Commissie onderzoekt op het moment van schrijven signalen van knelpunten in chips, software en cloud. Een afgeblazen megadeal verlaagt concentratierisico’s op papier. Maar bundeling van hardware met software en diensten blijft een aandachtspunt.
De AI Act richt zich vooral op aanbieders en gebruikers van modellen, niet op chipdeals. Toch raken grote inkoopafspraken aan publieke belangen zoals energiegebruik en toegang tot rekenkracht. Lidstaten kunnen daarom aanvullende eisen stellen bij datacenteruitbreiding. Denk aan transparantie over energie, koeling en hergebruik van warmte.
Voor Nederlandse overheden spelen aanbestedingsregels en soevereiniteit. Rekenen in de EU met duidelijke auditsporen wint aan belang. Contracten moeten ruimte laten voor controle, exit en dataveiligheid. Grote exclusieve langjarige afspraken passen daar minder goed bij.
Als toezicht zich verdiept, kan interoperabiliteit belangrijker worden. Open standaarden verlagen afhankelijkheid van één leverancier. Dat sluit aan bij Europese doelen voor digitale weerbaarheid. Het kan ook innovatie stimuleren, omdat meer partijen kunnen meedingen.
Wat dit betekent nu
Voor klanten verandert vandaag vooral de planning. Reken op schommelingen in levertijden en op langere onderhandelingen over prijs en voorwaarden. Spreid daarom workloads over meerdere clouds en regio’s. En bouw flexibiliteit in voor updates van modellen en infrastructuur.
Voor beleidsmakers is dit een signaal dat de markt nog broos is. Capaciteit kan snel verschuiven door één besluit. Europese en nationale plannen voor AI-infrastructuur vragen dus buffers en fasering. Zo voorkom je dat kritieke projecten stilvallen.
Voor de AI-sector in Europa schept dit zowel ruimte als onzekerheid. Er komt mogelijk meer toegang tot moderne hardware, maar niet gegarandeerd en niet goedkoop. Samenwerking tussen publieke en private partijen kan de risico’s delen. Dat versnelt tegelijk de naleving van de AI Act en de AVG.
De kern: Nvidia kiest voor flexibiliteit, OpenAI moet hergroeperen, en Europa krijgt een kans om capaciteit naar zich toe te trekken. Hoe groot die kans is, hangt af van productie, energie en regels. De komende maanden worden beslissend voor prijzen en beschikbaarheid. Alle ogen zijn gericht op de volgende leveringsrondes en productaankondigingen.
