OpenAI heeft vandaag OpenAI MRC gelanceerd: Multipath Reliable Connection (MRC)AMD, Broadcom, Intel, Microsoft en NVIDIA. Het doel van OpenAI MRC is dat clusters sneller en stabieler draaien, met minder verspilde GPU-tijd. Het protocol richt zich op grootschalige modeltraining, zoals bij GPT-systemen, waar netwerkvertraging en storingen direct de doorlooptijd verhogen. Het is een open protocol, bedoeld voor brede inzet bij verschillende hardware- en cloudleveranciers.
Weāve partnered with @AMD, @Broadcom, @Intel, @Microsoft, and @NVIDIA, to release Multipath Reliable Connection (MRC), a new open networking protocol that helps large AI training clusters run faster and more reliably, with less wasted GPU time.https://t.co/AiV952AJXs
ā OpenAI (@OpenAI) May 6, 2026
OpenAI MRC voor AI-clusters
OpenAI MRC is een open netwerkprotocol dat specifiek is aangekondigd voor grote AI-trainingsclusters. De kernbelofte is hogere snelheid en betrouwbaarheid, met minder onbenutte GPU-minuten. De betrokken partners zijn AMD, Broadcom, Intel, Microsoft en NVIDIA, die belangrijke bouwstenen leveren voor moderne AI-infrastructuur. De naam āMultipath Reliable Connectionā wijst op een focus op betrouwbaarheid in het netwerkpad tussen nodes, cruciaal bij gedistribueerde training. Het gaat om een open release, gericht op brede inzet over verschillende leveranciers en datacenteropstellingen.
In dit soort clusters bepaalt het netwerk vaak de effectieve benutting van GPUās. Verlies of vertraging in het dataverkeer kan trainingstijd verlengen, waardoor GPUās wachten op synchronisatie. Met OpenAI MRC wil OpenAI die wachtmomenten verlagen door netwerkconnecties robuuster en efficiĆ«nter te maken. Dat is relevant voor operators die grote GPT-achtige modellen trainen, waar elke procentpunt hogere benutting kan schelen in doorlooptijd en kosten. De aankondiging positioneert MRC als protocolniveau-oplossing, los van specifieke hardware.
AMD, Intel en NVIDIA aan boord
De coalitie achter OpenAI MRC is breed: AMD en NVIDIA leveren GPU-platforms, Intel levert CPUās en netwerk-interfaces, Broadcom levert netwerkchips en switching, en Microsoft beheert grootschalige cloudinfrastructuur. Door deze mix vergroot MRC de kans op compatibiliteit over meerdere lagen van de stack. Dat is relevant voor inkopers en operators die heterogene clusters bouwen. Het multi-vendor karakter is in de tweet expliciet genoemd, wat duidt op een intentie tot ecosystemeigen adoptie in plaats van een vendor-specifieke optimalisatie.
Voor enterprise-klanten kan zoān open protocol de afhankelijkheid van ƩƩn leverancier verkleinen. Dat maakt technische roadmapkeuzes flexibeler, bijvoorbeeld bij het combineren van GPUās van AMD of NVIDIA met netwerkcomponenten van Broadcom of Intel. Microsoft is als partner genoemd, wat de weg opent naar integratie in cloudomgevingen die deze leverancier beheert. Hoewel er geen implementatiedetails zijn gedeeld, wijst de samenstelling van partners op een ontwerp dat rekening houdt met real-world datacenterconstraints.
Minder verspilde GPU-tijd beoogd
OpenAI benoemt expliciet minder verspilling van GPU-tijd als doel van MRC. In gedistribueerde training wachten GPUās geregeld op data of synchronisatie; elke vertraging werkt door in de totale iteratietijd. Door de verbinding betrouwbaarder te maken, kan de cluster als geheel consistenter presteren. Voor ontwikkelteams betekent dit potentieel kortere trainingruns voor modellen zoals GPT en meer voorspelbare planning van experimenten. De winst zit niet in ruwe GPU-snelheid, maar in het beter benutten van aanwezige GPU-capaciteit.
Voor inkopers en FinOps-teams is dat een directe kostenvariabele. GPU-capaciteit wordt per uur afgerekend, dus minder idle tijd verlaagt de effectieve prijs per getrainde stap. Organisaties die op Microsoft-infrastructuur of eigen datacenters draaien, kunnen met OpenAI MRC sturen op betrouwbaarheid in het netwerkverkeer tussen nodes. De aankondiging geeft geen cijfers over latency of throughput, maar het concrete doel van minder verspilling biedt een duidelijke KPI voor adoptie-evaluatie door teams.
Belangrijke MRC-details ontbreken nog
De tweet noemt geen benchmarkresultaten, geen licentie, geen referentie-implementatie en geen roadmap voor uitrol. Er zijn ook geen cijfers gedeeld over latency, throughput, faalherstel of gemeten GPU-bezettingsgraad. Onbekend is of OpenAI MRC als bibliotheek, kernelmodule, firmware-update of netwerkstack-extensie wordt aangeboden. Evenmin is duidelijk welke hardwaregeneraties of besturingssystemen als eerste worden ondersteund. Die open punten bepalen in de praktijk de adoptiesnelheid in productie.
Teams zullen uitkijken naar een publieke specificatie, testresultaten en voorbeeldcode om OpenAI MRC te beoordelen in eigen clusters. Een formeel document met interoperabiliteits- en fallback-gedrag zou operators helpen bij risicobeoordeling. Updates zijn te verwachten via de kanalen van OpenAI. Tot die tijd is de hoofdboodschap helder: OpenAI MRC mikt op hogere betrouwbaarheid en minder verspilde GPU-tijd in grootschalige training, met steun van grote silicium-, netwerk- en cloudpartners.

