Samsung dicht bij Nvidia-goedkeuring voor HBM4, doorbraak voor AI-GPU’s?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Samsung dicht bij Nvidia-goedkeuring voor HBM4, doorbraak voor AI-GPU’s?

Amsterdam, 1 april 2026 14:47 

Samsung nadert goedkeuring door Nvidia voor HBM4-geheugen. De Zuid-Koreaanse fabrikant zit in de laatste fase van tests voor gebruik in nieuwe AI-accelerators. Dat kan de krapte in snel geheugen voor datacenters verlichten. Dit is relevant voor Europese cloudproviders en supercomputers, en past in het industriebeleid van de EU Chips Act.

Nvidia-test bijna rond

Samsung werkt aan de kwalificatie van zijn HBM4-modules bij Nvidia. Zo’n kwalificatie is nodig voordat geheugen in productiechips mag worden gebruikt. Het proces test snelheid, betrouwbaarheid en warmteafvoer. Alleen goedgekeurde partijen kunnen grote volumes leveren aan AI-systemen.

De timing is belangrijk. Nvidia bereidt nieuwe generaties accelerators voor, die meer geheugen per chip vragen. Zonder extra leveranciers blijven wachttijden en prijzen hoog. Een extra bron naast bestaande partijen verkleint dat risico.

Voor Samsung staat er veel op het spel. Het bedrijf wil terrein winnen op SK hynix, dat sterk was in HBM3E. Goedkeuring voor HBM4 opent de deur naar grote contracten. Dat kan de marktverhoudingen in 2026 veranderen.

HBM4 verhoogt geheugensnelheid

HBM staat voor High Bandwidth Memory: stapelgeheugen dicht bij de processor voor veel dataverkeer. De korte afstanden zorgen voor hoge snelheid en lagere vertraging dan klassiek DDR-geheugen. HBM4 is de volgende versie na HBM3E. Die moet meer bandbreedte en capaciteit leveren bij strengere energie-eisen.

Sneller geheugen is cruciaal voor het trainen en draaien van grote AI-modellen. De chip kan dan meer data per seconde verwerken. Dat helpt om GPU’s beter te benutten. Het kan ook de totale rekentijd verlagen.

HBM4 vergt nieuwe verpakkingstechnieken. De geheugenchips worden samen met de processor op één pakket geplaatst. Dat vraagt precieze koeling en een hoge productopbrengst. Fabrieken en toeleveranciers moeten hun processen strak op elkaar afstemmen.

HBM is gestapeld werkgeheugen naast de chip. Het levert veel hogere snelheid dan gewoon datageheugen in het moederbord.

Concurrentie om Nvidia-contract

De HBM-markt is klein, maar strategisch. SK hynix en Micron dingen naast Samsung mee naar Nvidia-orders. Wie als eerste stabiel, snel en koel geheugen biedt, wint. Kwalificatie bij Nvidia is daarom een harde toets.

Bij HBM3E had SK hynix een voorsprong. Dat gaf het bedrijf meer marktaandeel in AI-datacenters. Samsung wil met HBM4 dat evenwicht kantelen. Micron probeert ondertussen via nicheconfiguraties binnen te komen.

Meer concurrentie kan de supply chain gezonder maken. Klanten krijgen zo meer keuze in lagen, snelheden en levertijden. Dat drukt de prijsvolatiliteit. Het vergroot ook de veerkracht bij storingen of tekorten.

Verpakking en levertijden knellen

Niet alleen geheugen is schaars. Ook de geavanceerde verpakking is een knelpunt. Nvidia gebruikt hiervoor onder meer TSMC’s CoWoS-techniek, die beperkt is in capaciteit. Als geheugenleveringen stijgen, moet de verpakkingscapaciteit mee.

HBM4 stapels zijn hoger en warmer dan oudere generaties. Dat verhoogt de eisen aan koeling en testprocedures. Onvoldoende koeling verlaagt de opbrengst en kan vertraging veroorzaken. Leveranciers investeren daarom in nieuwe ovens, testers en koelplaten.

Levertijd blijft in 2026 een strategisch risico. Vertraging bij één schakel kan een compleet serverproject raken. Contracten bevatten daarom vaker boete- en herverdelingsclausules. Dat moet voorspelbaarheid voor klanten vergroten.

Europese impact en beleid

Europa bouwt snel AI-capaciteit uit bij EuroHPC-supercomputers en in commerciële clouds. Beschikbaarheid van HBM4 kan levertijden voor GPU-servers verkorten. Dat helpt universiteiten, zorg en overheid die rekentijd inkopen. Nederlandse partijen zoals SURF en regionale datacenters profiteren van extra keuze in componenten.

Het beleid speelt mee. De EU Chips Act wil strategische afhankelijkheden verkleinen en productie in de regio stimuleren. Meer aanbieders van HBM verlaagt de kwetsbaarheid van Europese projecten. Dat past bij doelen rond digitale soevereiniteit.

Er zijn ook praktische gevolgen. HBM4-systemen vragen vaak meer koeling en energie per rack. Dat raakt vergunningen en rapportage-eisen voor datacenters in Nederland, die op het moment van schrijven worden aangescherpt. Energie-efficiënte configuraties worden zo een inkoopcriterium.

Wat ontwikkelaars kunnen verwachten

Voor AI-teams kan HBM4 meer geheugen per GPU en hogere doorvoer betekenen. Dat maakt grotere batches en modellen mogelijk. Training kan hierdoor sneller en stabieler verlopen. Ook inferentie bij lage latentie wordt makkelijker.

De kosten blijven wel bepalend. HBM-chips zijn duur en lastig te produceren. Teams moeten afwegen of schaalvoordelen de hogere prijs compenseren. Levertijden en servicecontracten blijven onderdeel van die keuze.

Softwarekant telt mee. Frameworks moeten het extra geheugen goed aanspreken en warmtepieken vermijden. Profiling van datastromen wordt belangrijker. Zo haal je de beloofde winst ook echt in de praktijk.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

>