Samsung en AMD zetten AI-revolutie in hogere versnelling

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Samsung en AMD zetten AI-revolutie in hogere versnelling

Amsterdam, 1 april 2026 14:47 

Samsung profileert zich als sleutelpartner voor AMD bij de productie van AI-hardware. Het concern levert HBM-geheugen en geavanceerde chipverpakking die nodig zijn voor AMD’s datacenter-accelerators. De samenwerking speelt in fabrieken in Zuid-Korea en de VS en heeft impact op beschikbaarheid in Europa. Voor Nederlandse overheden en bedrijven telt ook de Europese AI‑verordening mee, met gevolgen voor inkoop en gebruik van rekencapaciteit.

Samsung levert HBM aan AMD

AMD heeft voor zijn AI-accelerators veel en snel geheugen nodig. Samsung schaalt HBM3E, een snellere generatie stapelgeheugen, op om die vraag te bedienen. Daarmee kan AMD meer kaarten leveren voor training en draaien van algoritmen en datamodellen. De beschikbaarheid van HBM is vaak de bottleneck in dit segment.

HBM staat voor High Bandwidth Memory, een type geheugen dat in stapels wordt gebouwd. Het wordt dicht bij de processor geplaatst om de gegevenssnelheid te verhogen. Dat is belangrijk voor generatieve systemen en grote taalmodellen die continu data verplaatsen. Minder afstand betekent meer snelheid en minder energieverlies.

HBM is gestapeld geheugen naast de chip, met extreem brede verbindingen voor hoge doorvoer bij lager verbruik dan traditioneel videogeheugen.

Voor AMD verkleint een extra HBM-leverancier de risico’s in de keten. Tot nu toe waren SK hynix en Micron dominante aanbieders. Met Samsung als optie kan AMD volumes spreiden en prijzen stabiliseren. Dat helpt levertijden in datacenters te verkorten.

Packaging versnelt AI-accelerators

Nog een bouwsteen is geavanceerde verpakking, ook wel 2,5D en 3D-packaging genoemd. Daarbij worden meerdere chiponderdelen dicht bij elkaar gemonteerd of gestapeld. Samsung investeert in zulke modules om geheugen en rekenchips compacter te verbinden. Dat vergroot de bandbreedte en verlaagt het energieverbruik.

AMD gebruikt een chiplet-ontwerp, waarbij één kaart uit meerdere gespecialiseerde stukjes silicium bestaat. Slimme verpakking verkort de routes tussen die delen. Dat levert lagere vertraging, meer doorvoer en betere koelbaarheid op. Het is precies wat zware AI‑systemen nodig hebben.

Voor Europese cloud- en HPC-centra kan dat direct voordeel geven. Meer efficiënte kaarten betekenen lagere stroomkosten per rekentaak. Ook past dit bij strengere duurzaamheidsdoelen in de EU. Een interposer, het tussenlaagje dat chips verbindt, maakt de korte en brede verbindingen mogelijk.

Meer capaciteit voor Europa

Extra geheugen en packaging-capaciteit moeten de schaarste aan AI-hardware verlichten. Europese dienstverleners en bedrijven krijgen zo meer keuze naast bestaande leveranciers. Dat is relevant voor sectoren als zorg, onderwijs en overheid waar eigen infrastructuur gewenst is. Ook Nederlandse instellingen kunnen zo hun AI‑projecten opschalen.

De Europese Chips Act en ASML’s lithografiepositie versterken het continent in de keten. Meer aanbod van AI‑kaarten helpt investeringen in lokale datacenters te rechtvaardigen. Tegelijk sturen netbeheerders en gemeenten op zuinig ruimte- en energiegebruik. Efficiëntere hardware past bij dat beleid.

De Europese AI‑verordening vraagt van overheden en bedrijven meer controle over gebruikte systemen. Dat raakt vooral inkoop en toetsing van hoogrisico‑toepassingen. Beschikbaarheid van betrouwbare en transparant gespecificeerde hardware helpt bij naleving. Denk aan documentatie over prestaties, foutgedrag en energieverbruik.

AMD scherpt concurrentie aan

AMD’s Instinct‑lijn, waaronder MI300‑varianten en opvolgers, concurreert met Nvidia in datacenters. Voldoende HBM3E en goede packaging zijn nodig om die strijd vol te houden. Met Samsung als toeleverancier kan AMD volumes en configuraties uitbreiden. Dat vergroot de kans op snellere leveringen aan klanten.

Software blijft een tweede pijler naast de chips. AMD bouwt aan het ROCm‑ecosysteem om AI‑workloads goed te laten draaien. Meer en stabielere hardware maakt het aantrekkelijker voor ontwikkelaars om te optimaliseren. Dat verkleint de kloof met concurrerende platforms.

In Europa draaien al supercomputers op AMD‑GPU’s, zoals LUMI in Finland. Upgrades naar nieuwe generaties liggen voor de hand als de keten meehelpt. Beschikbaarheid van HBM en packaging is daarbij doorslaggevend. Op het moment van schrijven mikken veel projecten op uitrolfasen in 2025 en 2026.

Risico’s en aandachtspunten

De kwaliteitseisen voor HBM zijn hoog. Warmteontwikkeling, foutpercentages en rendement in de fabriek bepalen de uiteindelijke prijs. Als één schakel hapert, lopen levertijden op. Strakke validatie door AMD en leveranciers blijft daarom nodig.

Geopolitiek en exportregels kunnen de toelevering beïnvloeden. De VS, Korea en Taiwan spelen een sleutelrol in de keten. Europese afnemers moeten dus rekening houden met schommelingen in aanvoer. Diversificatie van leveranciers beperkt dat risico.

Ten slotte groeit het energieverbruik van AI‑datacenters. In Nederland speelt netcongestie en gelden strengere duurzaamheidseisen. Efficiëntere kaarten en warmteterugwinning worden belangrijker bij nieuwe locaties. Dat sluit aan bij EU‑beleid rond energie-efficiëntie en rapportageverplichtingen.

Wat dit concreet betekent

Voor kopers: meer keuze in AI‑hardwareconfiguraties en mogelijk kortere wachttijden. Voor ontwikkelaars: stabielere leveringen en een voorspelbaarder platform om algoritmen te optimaliseren. Voor beleidsmakers: beter zicht op de hardwarebasis onder kritieke AI‑toepassingen. Dat helpt bij aanbestedingen en toetsing onder de AI‑verordening.

Voor AMD vergroot Samsung’s rol de kans op schaal en continuïteit. Voor Samsung opent het extra afzet in een snelgroeiende markt. De Europese markt profiteert als beide partijen leveringszekerheid waarmaken. De echte test volgt bij grootschalige uitrol in datacenters.

De kern: geheugen en verpakking zijn de stille motor achter AI‑prestaties. Wie die twee op orde heeft, kan modellen sneller en zuiniger draaien. Daarmee winnen niet alleen hyperscalers, maar ook Europese onderzoeksinstellingen en overheden. De komende kwartalen moeten uitwijzen hoe snel de keten daadwerkelijk opschaalt.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

De vraag of kunstmatige intelligentie banen vervangt of vooral werk verandert staat opnieuw op scherp, nu generatieve systemen snel doorstromen

Google test een visuele make-over voor Gemini AI. De proef wordt bij een deel van de gebruikers uitgerold. Met de

Olaf Kaper, hoogleraar Egyptologie aan de Universiteit Leiden, stelt dat hij hiërogliefen nog altijd sneller ontcijfert dan kunstmatige intelligentie. Hij

>