Cisco introduceert de Silicon One G300-chip en nieuwe opties voor vloeistofkoeling voor AI-toepassingen. De vernieuwingen richten zich op datacenters wereldwijd, met duidelijke impact in Europa en Nederland. Doel is snellere AI-netwerken met lager energiegebruik en minder warmte. Voor Europese overheden spelen de Europese AI-verordening gevolgen overheid en energie-eisen mee bij keuzes voor infrastructuur.
Nieuwe Silicon One G300
Cisco presenteert de Silicon One G300 als nieuwe netwerkchip voor AI- en machinelearning-clusters. De chip is ontworpen voor hoge doorvoer en lage vertraging in grote trainings- en inferentiesystemen. Daarmee mikt Cisco op snellere verbindingen tussen GPUās en opslag, zonder complexe eigendomsprotocollen.
De G300 is een switch-ASIC, een chip met vaste functies die netwerkpakketten razendsnel verwerkt. De technologie sluit aan op 800G Ethernet-verbindingen en moderne optiek. Het doel is schaalbaar verkeer over duizenden servers zonder knelpunten.
Cisco positioneert de G300 als onderdeel van een open netwerkstack. De focus ligt op interoperabiliteit met bestaande datacenterhardware en -software. Dat moet leveringsrisicoās en leverancierslock-in beperken voor Europese klanten.
Vloeistofkoeling krijgt prioriteit
Naast de chip kondigt Cisco opties voor vloeistofkoeling aan in netwerk- en AI-infrastructuur. Vloeistofkoeling is koeling met water of speciale vloeistof dicht bij de chip, in plaats van alleen met lucht. Dit wordt belangrijker nu GPUās en 800G-links veel warmte produceren.
Leveranciers werken met direct-to-chip-koeling en achterdeurradiatoren bij racks. Zulke oplossingen verminderen ventilatorverbruik en koelbelasting in de zaal. Dat kan het totale energiegebruik en geluid omlaag brengen en de dichtheid per rack verhogen.
Voor locaties in Amsterdam, de Randstad en Frankfurt is dit relevant door schaarse stroom en strikte koelplafonds. Vloeistofkoeling helpt capaciteit te vergroten binnen bestaande aansluitingen. Datacenters kunnen zo meer AI-rekenkracht plaatsen zonder extra netschaarste te veroorzaken.
Vloeistofkoeling voert warmte direct bij de processor af met een vloeistofcircuit, waardoor minder lucht en ventilatoren nodig zijn.
Ethernet voor AI-clusters
Cisco zet in op Ethernet als netwerk voor AI-fabrics, naast of in plaats van InfiniBand. Het bedrijf belooft schaalbaarheid, keuzevrijheid en lagere kosten per poort. AI-toepassingen vragen om collectieve communicatie met lage vertraging en voorspelbare prestaties.
Technieken zoals RoCE helpen daarbij. RoCE (RDMA over Converged Ethernet) laat servers elkaars geheugen benaderen via Ethernet met weinig overhead. In combinatie met slimme congestieregeling en telemetrie kan dit trainingstijden verkorten.
Het succes hangt af van de afstemming met GPU-stacks van Nvidia en AMD. Validaties, referentieontwerpen en beheerfuncties moeten latentie en pakketverlies laag houden. Zichtbaarheid in de fabric blijft cruciaal om prestatieknelpunten snel te vinden.
Europese regels sturen keuzes
In Europa spelen beleid en wetgeving een rol bij infrastructuurkeuzes. De Europese AI-verordening richt zich vooral op gebruik en risicoās van AI-systemen, niet op netwerkchips. Toch wegen aanbestedende diensten de Europese AI-verordening gevolgen overheid mee, bijvoorbeeld rond transparantie en leveranciersonafhankelijkheid.
Daarnaast geldt de Europese Energie-Efficiƫntie Richtlijn voor datacenters. Faciliteiten boven 500 kW moeten op het moment van schrijven energie- en watercijfers rapporteren. Efficiƫntere koeling en hogere dichtheid helpen om aan die rapportage en doelen te voldoen.
In Nederland is netcapaciteit schaars bij TenneT en regionale beheerders. Gemeenten en provincies vragen om zuinige ontwerpen en hergebruik van restwarmte. Technologie die stroom- en koelvraag drukt, kan vergunningen en uitrol versnellen.
Gevolgen voor klanten
Voor cloudproviders, telecom en grote bedrijven biedt dit meer keuze voor AI-netwerken. Een overstap naar 800G Ethernet en vloeistofkoeling vraagt zorgvuldige planning. Facilitaire aanpassingen, waterkwaliteit en onderhoudsprocessen moeten vroeg worden meegenomen.
Start met een pilot op representatieve AI-workloads. Meet latentie, doorvoer en energie per getraind of bediend model. Vergelijk die resultaten met bestaande InfiniBand- of 400G-omgevingen om businesscases te onderbouwen.
Let op leverbaarheid, interoperabiliteit en service-ecosysteem in Europa. Vraag ondersteuning voor open protocollen, validaties met Nvidia- en AMD-platforms en Europese certificering. Neem beveiliging en privacy mee, zoals versleuteling en netwerksegmentatie, om aan de AVG te blijven voldoen.
