Nvidia, Microsoft (Azure) en Google versnellen Magnificent 7 dankzij AI

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Nvidia, Microsoft (Azure) en Google versnellen Magnificent 7 dankzij AI

Amsterdam, 16 februari 2026 21:54 

Nvidia, onderdeel van de Amerikaanse “Magnificent Seven”, laat op het moment van schrijven versnelde groei zien. Het bedrijf profiteert van de wereldwijde vraag naar rekenkracht voor generatieve AI. Grote klanten zijn Microsoft, Amazon, Alphabet en Meta, die investeren in nieuwe datacenters. Dit heeft ook gevolgen voor Europa, waar overheden en bedrijven dezelfde infrastructuur gebruiken en moeten voldoen aan de Europese AI-verordening (AI Act) en de AVG.

Nvidia groeit door AI-vraag

Nvidia levert grafische processors (GPU’s), chips die veel berekeningen tegelijk kunnen doen. Die chips, zoals de H100 en H200, worden gebruikt om grote taalmodellen te trainen en te draaien. Nvidia kondigde ook de Blackwell-generatie aan, die meer rekenkracht en efficiency belooft. Daarmee wil het bedrijf de vraag bijhouden naar snellere AI-systemen.

Generatieve AI vraagt veel rekenkracht. Denk aan modellen als OpenAI’s GPT-4, Google Gemini en Meta’s Llama 3. Zulke modellen zijn grote algoritmen die text, beeld of code maken op basis van voorbeelddata. Voor de training en het gebruik daarvan huren bedrijven vaak duizenden GPU’s tegelijk.

De combinatie van sterke vraag en beperkte productiecapaciteit stuwt de omzet. Grote cloudbedrijven reserveren capaciteit maanden vooruit. Dat houdt de prijzen hoog en verkleint de kans op stilstand in projecten. Zo kan Nvidia de groei versnellen zonder agressief te hoeven concurreren op prijs.

De ‘Magnificent Seven’ zijn Apple, Microsoft, Alphabet, Amazon, Nvidia, Meta en Tesla.

Cloudreuzen verhogen investeringen

Amazon Web Services, Microsoft Azure en Google Cloud breiden hun AI-datacenters uit. Zij investeren in gebouwen, stroom, koeling en netwerk, maar vooral in AI-hardware. Meta vergroot eveneens zijn rekenparken voor aanbevelingssystemen en generatieve functies. Die investeringen maken AI-diensten sneller en breder beschikbaar.

Deze bedrijven ontwikkelen ook eigen chips om minder afhankelijk te zijn. Voorbeelden zijn AWS Trainium en Inferentia, Google TPU en Meta MTIA. Toch blijft Nvidia aantrekkelijk door hoge prestaties en het softwareplatform CUDA. Dat platform maakt het voor ontwikkelaars eenvoudiger om modellen sneller te laten draaien.

De toeleveringsketen is complex en gevoelig voor knelpunten. Nvidia produceert via TSMC, dat geavanceerde verpakkingen zoals CoWoS gebruikt. Snelle geheugenchips (HBM) van onder meer SK Hynix, Samsung en Micron zijn schaars. Europa speelt indirect mee via ASML, dat de lithografiemachines levert waarmee deze chips mogelijk zijn.

Europese afhankelijkheid en keuzes

Europese overheden en bedrijven gebruiken steeds vaker generatieve systemen voor klantenservice, analyse en softwarehulp. Vaak draaien deze diensten op Amerikaanse clouds met Nvidia-hardware. Dat maakt de vraag naar capaciteit en de prijs in Europa afhankelijk van beslissingen in de VS en Azië. Tegelijk gelden hier de AVG en de AI Act, met strengere eisen aan data en transparantie.

De Europese AI-verordening gevolgen overheid zijn groot wanneer AI in diensten voor burgers wordt gebruikt. Hoogrisico-toepassingen vragen risicobeheer, documentatie en menselijk toezicht. Dataminimalisatie en versleuteling zijn onder de AVG verplicht. Afnemers moeten daarom niet alleen op snelheid letten, maar ook op naleving en uitlegbaarheid.

Nederland en Ierland huisvesten veel datacenters door gunstige netwerken en zeehavens. Lokale regels voor energie, water en ruimte worden strenger. Dat kan de uitrol van AI-infrastructuur vertragen of verplaatsen. Organisaties zullen vaker kiezen tussen publieke cloud, Europese aanbieders of eigen rekenclusters dicht bij de data.

Risico’s voor groei zichtbaar

Concurrentie neemt toe. AMD’s Instinct MI300-serie biedt een alternatief voor Nvidia in training en inferentie. Grote platforms bouwen eigen chips, wat de vraag naar Nvidia kan afremmen op langere termijn. Ook efficiëntere modellen en technieken kunnen de behoefte aan ruwe rekenkracht verlagen.

Geopolitiek blijft een onzekerheid. Exportregels beperken geavanceerde chipverkoop naar bepaalde landen, waaronder China. Dat kan groei drukken of verschuiven naar andere regio’s. Europese bedrijven moeten bovendien letten op sancties, leveranciersrisico’s en concentratie in de keten.

Duurzaamheid is een tweede rem. AI-datacenters gebruiken veel stroom en koeling, met soms ook veel water. Europese rapportageplichten zoals CSRD en nationale energie-eisen maken die impact zichtbaar. Dat kan leiden tot strengere normen en hogere kosten per rekeneenheid.

Regels sturen AI-inkoop

De AI Act introduceert risicoklassen en verplichtingen voor aanbieders en gebruikers van AI. Voor generatieve modellen gelden transparantie-eisen, zoals documentatie over data en prestaties. Overheden en zorginstellingen moeten bovendien toetsen op bias en veiligheid. Dit vraagt om heldere contracten met cloud- en modelleveranciers.

Voor AVG-naleving zijn dataminimalisatie en doelbinding essentieel. Gevoelige data mogen alleen worden verwerkt als dat nodig en rechtmatig is. Versleuteling en pseudonimisering verlagen risico’s bij uitbesteding. Europese afnemers zullen vaker kiezen voor regionale datalocaties en duidelijke auditrechten.

Publieke instellingen moeten kunnen uitleggen hoe een algoritme werkt en besluitvorming ondersteunen met menselijk toezicht. Dat vereist logging, modelversies en herleidbare datasets. Leveranciers die dit niet bieden, vallen buiten aanbestedingen. Dit kan de markt verschuiven naar partijen met sterke compliance-tools.

Wat dit betekent nu

Voor ontwikkelaars en bedrijven betekent de groei van Nvidia en de cloudreuzen vooral meer beschikbare AI-capaciteit. De kosten blijven echter hoog en capaciteit schaars op piekmomenten. Vroege reservering en slim schalen van modellen worden belangrijk. Een mix van GPU’s, CPU’s en gespecialiseerde accelerators kan de rekening verlagen.

Voor beleidsmakers is het moment om inkoopnormen te scherpen. Denk aan eisen voor uitlegbaarheid, energie-efficiëntie en exitmogelijkheden om vendor lock-in te vermijden. Heldere afspraken over datalocatie en logging helpen bij audits onder de AI Act. Zo blijft innovatie mogelijk binnen Europese regels.

Voor de Europese industrie liggen er kansen en afhankelijkheden tegelijk. De EU Chips Act en spelers als ASML versterken de keten, maar AI-rekenkracht komt nu vooral van Amerikaanse platforms. Eigen alternatieven en Europese cloudopties krijgen daardoor hernieuwde aandacht. Wie tijdig bouwt aan betrouwbare, zuinige en conforme AI-infrastructuur, wint aan wendbaarheid.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>