Cisco lanceert een nieuwe chip die AI-datacenters over grote afstanden met elkaar moet verbinden. Het gaat om snellere verbindingen met minder stroomverbruik, zodat rekenclusters als één systeem kunnen werken. Dat is belangrijk nu bedrijven hun modellen trainen op meerdere locaties tegelijk. Voor Europa en Nederland speelt ook de druk op het stroomnet en de vraag naar efficiëntere infrastructuur.
AI-clusters over grotere afstanden
Grote AI-modellen vragen duizenden grafische chips die samen moeten werken. Die chips staan vaak verspreid over meerdere gebouwen of zelfs steden. Een snellere netwerkchip kan die afstanden overbruggen met hoge bandbreedte en lage vertraging. Zo voelt het netwerk voor de software als één groot cluster.
De nieuwe chip is bedoeld voor datacenter-naar-datacenter-verbindingen, ook wel data center interconnect. Dat zijn trajecten van tientallen tot honderden kilometers. Denk aan verbindingen tussen Amsterdam, Groningen en Frankfurt. Minder vertraging op die routes betekent beter gebruik van dure rekenkracht.
Voor cloudbedrijven en telecomspelers is dit een logische stap. AI-verkeer groeit sneller dan gewoon internetverkeer. Traditionele netwerkapparatuur raakt dan een bottleneck. Een gespecialiseerde chip voor AI-verkeer moet die knelpunten oplossen.
Minder energie per verzonden bit
Netwerken slurpen stroom, vooral als data over lange afstanden gaat. De nieuwe generatie chips belooft minder energie te verbruiken per verzonden bit. Dat is niet alleen goed voor de kosten, maar ook voor CO₂-doelen. In de EU telt dat zwaar mee in investeringsbeslissingen.
De chip werkt samen met optische modules die lichtsignalen sturen over glasvezel. Zulke modules kunnen vandaag al 400 tot 800 gigabit per seconde aan, en evolueren naar nog hogere snelheden. Minder losse tussenkasten en efficiëntere optica drukken het energie- en ruimtebeslag in netwerkracks.
Elke extra milliseconde telt: als GPU’s wachten op data, verbranden ze energie zonder resultaat. Snelle, zuinige netwerken leveren direct rendement op.
Voor operators is “energie per bit” een kerngetal. Een daling daarvan maakt het haalbaar om AI-netwerken op te schalen zonder dat de stroomrekening explodeert. Ook helpt het bij het voldoen aan strengere Europese rapportages over energiegebruik.
Ethernet en optica winnen terrein
AI-clusters draaiden lang op gespecialiseerde netwerken. Maar snel Ethernet met slimme chips en coherente optica rukt op. Het is goedkoper op schaal en sluit aan op bestaande datacenter-architectuur. Voor veel bedrijven is dat aantrekkelijker dan een volledig eigen netwerkstack.
Cisco zet met zijn chip in op die trend: hoge doorvoer, lage wachttijd en goede foutafhandeling. Coherente optica houdt het signaal “schoon” over lange afstanden, zelfs buiten de stad. Zo kan data zonder dure tussenstations naar de volgende locatie.
Voor gebruikers maakt dit het opschalen eenvoudiger. Ze kunnen bestaande glasvezels beter benutten en stap voor stap upgraden. Dat beperkt de verstoring in productienetwerken.
Europa zoekt spreiding en snelheid
In Europa remt het stroomnet de groei van datacenters, vooral rond Amsterdam en Dublin. Snellere langeafstandsverbindingen maken spreiding logischer: rekenclusters kunnen naar plekken met ruimte en groene stroom, zoals Scandinavië of Spanje. Toch blijft lage vertraging cruciaal, zeker bij training en inferentie in real-time.
Voor Nederland kan dit een uitweg zijn. Grote rekenhubs in de Randstad koppelen aan capaciteit in Eemshaven of over de grens. Bedrijven krijgen zo meer speling, terwijl de druk op het lokale net iets afneemt. Voorwaarde is wel voldoende glasvezelcapaciteit en heldere vergunningen.
EU-regels rond datalocatie en veiligheid blijven gelden. Snelle netwerken helpen, maar data mag niet zomaar overal heen. Beheersing van routes, encryptie en audit-trails horen standaard bij dit soort verbindingen.
Nieuwe slag om netwerkstandaarden
De markt voor AI-infrastructuur verschuift van alleen chips naar het hele netwerk. Wie de verbindingen het snelst en zuinigst maakt, wint klanten. Cisco concurreert hier met aanbieders van switch- en routerchips, en met leveranciers van optische technologie. Ook cloudbedrijven bouwen steeds vaker eigen oplossingen.
Voor Europese telecomoperators biedt dit nieuwe omzetkansen. AI-klanten vragen premium-verbindingen met garanties op snelheid en beschikbaarheid. Denk aan dedicated glasvezel, lage-latency-routes en monitoring tot op pakketniveau.
De komende jaren draait het om drie dingen: bandbreedte, vertraging en verbruik. Wie daar de beste balans in vindt, bepaalt hoe en waar AI-clusters groeien. En daarmee ook waar de economische waarde terechtkomt.
Wat dit betekent voor beslissers
IT-managers kunnen met zulke chips rekenclusters over meerdere locaties spreiden, zonder grote prestatieverliezen. Dat maakt planning flexibeler en verkleint risico’s bij storingen of onderhoud. Tegelijk blijft meten cruciaal: niet elk model verdraagt dezelfde vertraging.
Voor CFO’s is de som helder: minder energie per bit en minder tussenapparatuur drukken opex en capex. Maar investeringen in glasvezel, optische modules en beveiliging lopen mee. Een gefaseerd migratiepad verkleint de risico’s.
Beleidsmakers zien kansen voor regionale spreiding en groene stroom. Snelle netwerken kunnen die strategie ondersteunen, mits regelgeving en vergunningen meebewegen. Zo blijft Europa concurrerend in een markt waar dataverkeer explosief groeit.
