Nvidia verlegt focus naar CPU’s — klaar voor de volgende AI-generatie?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Nvidia verlegt focus naar CPU’s — klaar voor de volgende AI-generatie?

Amsterdam, 1 april 2026 14:58 

Nvidia bouwt zijn strategie uit met eigen CPU’s voor de volgende generatie AI-systemen. Het bedrijf verschuift de aandacht van alleen GPU’s naar een tweesporenbeleid met CPU en GPU in één platform. Dat gebeurt wereldwijd en raakt ook Europese datacenters en overheden onder de Europese AI-verordening. Doel is snellere en zuinigere algoritmen, met minder knelpunten in geheugen en energie.

Nvidia zet in op CPU’s

Op het moment van schrijven is Nvidia vooral bekend van GPU’s voor training van grote datamodellen. Toch zet het concern nu sterker in op CPU’s, de centrale rekenchips in servers. Die stap moet AI-systemen beter laten samenwerken tussen algemene taken en zware parallelle berekeningen. Het maakt de infrastructuur minder afhankelijk van één type chip.

De kern van die koers is de Arm-gebaseerde Grace CPU. Arm is een chipontwerp dat zuinig en modulair is, en breed gebruikt wordt in telefoons en servers. Nvidia gebruikt Grace om datastromen en geheugen dichter op de GPU te brengen. Zo wordt minder tijd verloren aan het verplaatsen van data.

Daarmee schuift Nvidia op richting complete platforms, niet alleen losse accelerators. Voor klanten betekent dit één stack voor rekenkracht, geheugen en netwerk. Dat is interessant voor cloudproviders en onderzoekscentra die schaalbare AI willen inzetten. Ook Europese partijen kijken hiernaar voor kostenbeheersing en energiezuinigheid.

Grace en Blackwell gekoppeld

Nvidia koppelt zijn Grace CPU direct aan nieuwe Blackwell-GPU’s in de GB200 “Grace Blackwell” superchip. Deze bundelt rekenkernen en geheugen via snelle verbindingen zoals NVLink. Zo ontstaat één logisch geheugenbereik, wat wachttijden en kopieerwerk vermindert. Dat helpt bij grote taalmodellen en vectorzoektoepassingen.

Een GPU is een grafische processor die veel eenvoudige berekeningen tegelijk uitvoert. Een CPU is een algemene processor die taken plant en complexe logica afhandelt. In AI-training doet de GPU het zware rekenwerk, terwijl de CPU data voorbereidt en orkestreert. Bij inferentie, het toepassen van een getraind model, kan een nauwe koppeling sterk schelen in snelheid en energie.

Een CPU stuurt en plant, een GPU rekent massaal parallel. Samen verminderen ze databeweging en wachttijd bij AI.

Met GB200 richt Nvidia zich op complete rekenblokken voor AI en HPC. Leveranciers kunnen deze als bouwsteen inzetten in datacenters. Dit verlaagt de integratierisico’s en versnelt uitrol. Het legt ook druk op concurrenten om eigen CPU-GPU-combinaties te bieden.

Efficiëntie drijft datacenterkeuzes

AI rekent intensief en verbruikt veel stroom. Door CPU en GPU hechter te integreren, hoeven modellen minder data over relatief trage bussen te verplaatsen. Dat verhoogt de prestatie per watt, een belangrijke maat in moderne datacenters. Het kan ook de totale eigendomskosten drukken.

Voor cloud en enterprises telt voorspelbare capaciteit. Snelle koppelingen en gedeeld geheugen verkleinen knelpunten bij grote batches en streamingdata. Dit is relevant voor real-time toepassingen, zoals zoekfuncties met generatieve antwoorden. Ook financiële modellen en medische beeldanalyse hebben hier baat bij.

In Europa is energie-efficiëntie extra belangrijk door hoge stroomprijzen en duurzaamheidsdoelen. Datacenteruitbreiding stuit vaak op netcongestie en milieueisen. Een zuiniger AI-stack vergemakkelijkt vergunningen en bedrijfsvoering. Het past bij de Europese strategie om digitale groei te koppelen aan lagere CO2-uitstoot.

EU AI-verordening stuurt keuzes

De Europese AI-verordening stelt eisen aan transparantie, risicobeheer en documentatie. Voor overheden en publieke diensten, zoals zorg en onderwijs, weegt dit zwaar. Zij hebben hardware nodig die audit en monitoring ondersteunt. Platformen die data beter scheiden en beveiligen helpen daarbij.

De AVG verlangt dataminimalisatie en versleuteling bij persoonsgegevens. In AI-infrastructuur betekent dit dat geheugen en netwerk verkeer veilig moeten zijn. Strakke CPU-GPU-integratie kan versleuteling en toegangssturing centraal regelen. Dat maakt naleving eenvoudiger bij gevoelige workloads.

Europa bouwt tegelijk eigen rekenkracht op via EuroHPC. Het JUPITER-exascalesysteem in Duitsland gebruikt Nvidia Grace Hopper-technologie voor AI en wetenschap. Nationale onderzoekscentra en cloudproviders in de EU testen vergelijkbare architecturen. Zij willen voldoen aan de wet én de rekeneisen van moderne modellen.

Concurrentie verschuift mee

Met de CPU-focus betreedt Nvidia het speelveld van Intel en AMD. Intel biedt Xeon-CPU’s naast Gaudi-accelerators. AMD levert EPYC-CPU’s met MI300-accelerators als geïntegreerde optie. Klanten vergelijken nu complete platforms in plaats van losse chips.

Ook Arm-CPU’s winnen terrein in de cloud, zoals AWS Graviton. In Europa ontwikkelt SiPearl de Rhea-CPU voor supercomputers. Dit vergroot de keuze voor energiezuinige servers. Het zet druk op prijzen en beschikbaarheid in een krappe markt.

Voor softwarebouwers telt compatibiliteit. Ontwikkelketens als CUDA, Python en Kubernetes moeten soepel draaien op gemengde CPU-GPU-stacks. Leveranciers die drivers, bibliotheken en monitoring integreren, winnen snelheid. Nvidia speelt daar op in met één softwarelaag over zijn hardware heen.

Risico’s en open vragen

Beschikbaarheid blijft een punt. Chipproductie kent lange doorlooptijden en geopolitieke risico’s. Exportregels en vraagpieken kunnen levertijden verlengen. Klanten zullen dubbel sourcen waar mogelijk.

Lock-in is een ander risico. Een volledige stack van één leverancier is handig, maar vermindert wendbaarheid. Open standaarden voor modellen, dataformaten en orkestratie zijn daarom cruciaal. Europese instellingen vragen hier nadrukkelijk om bij inkoop.

Ten slotte is de balans tussen training en inferentie nog in beweging. Als inferentie efficiënter wordt op gecombineerde CPU-GPU-systemen, verschuift de TCO-planning. Welke mix het beste werkt, hangt af van modelgrootte en gebruikspatroon. Die afweging bepaalt of Nvidia’s CPU-strategie ook op lange termijn de norm wordt.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

Niels Boel zet dit seizoen een stap hogerop als scheidsrechter in het Nederlandse betaalde voetbal. Hij wil onopvallend en met

Microsoft waarschuwt gebruikers om niet blind te vertrouwen op Copilot. Het bedrijf benadrukt dat het AI-systeem fouten kan maken en

Emanuel Scheek, innovatie-expert, waarschuwt voor snel groeiende juridische risico’s rond kunstmatige intelligentie en deepfakes. Hij ziet dat generatieve systemen als

>