Intel en SambaNova pakken beperkingen van GPU-only AI-inferentie aan

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Intel en SambaNova pakken beperkingen van GPU-only AI-inferentie aan

Amsterdam, 8 april 2026 19:48 

Intel en SambaNova gaan samenwerken aan nieuwe systemen voor AI-inferentie. De bedrijven willen hiermee beperkingen van GPU-only-architecturen oplossen. De aankondiging geldt wereldwijd en is deze week bekendgemaakt. Doel is lagere kosten, minder energieverbruik en meer keuze voor Europese organisaties binnen de AI-verordening en AVG.

GPU-only schiet tekort

AI-inferentie is het uitvoeren van een getraind model om een antwoord te geven. Veel organisaties draaien dit nu vooral op GPU’s. Dat werkt, maar kent grenzen in kosten, energieverbruik en levertijden. Ook zijn geheugenlimieten en wachttijden een probleem bij grote taalmodellen.

Voor veel toepassingen zijn GPU’s zwaarder dan nodig. Denk aan klantvragen, zoekfuncties en documentanalyse. Daar telt vooral lage latency, voorspelbare prestaties en betaalbaarheid. Een mix van rekenkracht kan dan efficiënter zijn.

Daarnaast is er het risico op afhankelijkheid van één chiptype. Wereldwijd is de vraag naar GPU’s hoog en de aanvoer wisselend. Bedrijven lopen zo vertraging op bij projecten. Dat raakt ook publieke diensten en onderwijs in Nederland en Europa.

AI-inferentie: het moment waarop een algoritme een invoer verwerkt en een resultaat geeft, zoals een zin of voorspelling, op basis van eerder getrainde datamodellen.

Combinatie van rekenkracht

Intel en SambaNova kiezen voor een gecombineerde architectuur. Die gebruikt processors en accelerators naast elkaar, afgestemd op de taak. Zwaardere modeldelen draaien op versnellers, lichtere stappen op CPU’s. Zo blijft de keten snel en betaalbaar.

Intel levert hierbij de algemene rekenlaag en AI-versnelling binnen zijn processorfamilies en accelerators. SambaNova brengt zijn platform en optimalisaties voor grote modellen mee. Samen richten ze zich op inferentie op schaal, met beheer en monitoring voor bedrijven. De precieze configuratie hangt af van modelgrootte en datavolume.

Belangrijk is ook openheid en interoperabiliteit. Organisaties willen geen lock-in, maar keuze voor hardware en software. Ondersteuning voor gangbare modellen en frameworks is daarom onderdeel van de aanpak. Dat maakt migratie en uitbreiding eenvoudiger.

Impact AI-verordening op overheid

De Europese AI-verordening vraagt om risicobeheersing, transparantie en logging. Bij inferentie betekent dit herleidbare beslissingen, beveiliging en controle over data. Een flexibele infrastructuur helpt om deze eisen per use-case in te richten. Dat kan in de cloud, on-premises of hybride, met dezelfde bouwstenen.

Voor Nederlandse overheden en zorginstellingen telt ook de AVG. Dataminimalisatie en versleuteling zijn verplicht, net als duidelijke bewaartermijnen. Door inferentie dicht bij de data te draaien, verklein je overdrachtsrisico’s. Dat past bij strengere inkoopregels en sectorale richtlijnen.

Leveringszekerheid is een extra factor bij publieke diensten. Door niet alleen op GPU’s te leunen, verklein je het risico op tekorten. Bovendien kun je capaciteiten beter spreiden over meerdere locaties. Dat helpt bij continuïteit en kostenbeheersing.

Kosten en energie onder controle

De totale kosten van AI-inferentie bestaan uit hardware, stroom, koeling en beheer. GPU-only is vaak duur bij continue, middelzware werklast. CPU’s of lichtere accelerators zijn dan goedkoper per antwoord. Grote modellen vragen wel versnellingskracht, maar niet voor elke stap.

Energieverbruik is een knelpunt in Europese datacenters. Steden als Amsterdam en Dublin kennen netcapaciteitsdruk. Een mix-architectuur kan hetzelfde werk met minder watt doen. Dat verlaagt kosten en helpt bij duurzaamheidsdoelen.

Ook schaalbaarheid speelt mee. Met meerdere rekenlagen kun je capaciteit fijnmazig bijschakelen. Zo voorkom je overprovisioning van dure kaarten voor pieken. Dat maakt budgetten voorspelbaarder voor IT en bestuur.

Van pilot naar productie

Organisaties starten het best met een workload-scan. Bepaal per toepassing latency, doorvoer en vertrouwelijkheid. Koppel daar het juiste rekenprofiel aan: CPU-first voor licht werk, versnellers voor zware modeldelen. Begin met een afgebakende pilot en meet kosten per verzoek.

Voor productie zijn standaard bouwstenen handig. Denk aan model-serving, observability en beveiligde API’s. Versiebeheer en logging helpen bij audit onder de AI-verordening. Zorg dat data versleuteld is en dat toegang strikt wordt beperkt.

Tot slot is portabiliteit belangrijk. Kies voor modellen en tools die op meerdere platforms draaien. Dan kun je later wisselen van hardware of locatie zonder herschrijven. Dat vermindert risico en versnelt uitrol in Europa.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

Nederlandse advocaten zien steeds vaker AI-teksten van cliënten, gemaakt met ChatGPT, Gemini of Copilot. Ze besteden daarna veel tijd aan

ABN AMRO schrapt 5.200 banen in Nederland tegen 2028. De bank zet versneld in op automatisering, digitalisering en kunstmatige intelligentie.

Geert Wilders (PVV) en Frans Timmermans (GroenLinks-PvdA) botsten deze week in het Haagse debat over AI-plaatjes in de politiek. Centraal

>