英偉達創始人兼首席執行官黃仁勛在今年的CES 2026上,正式發布了最新的Rubin平台,確認「已經全面投產」,開啟新的AI之旅。

新平台由六款全新晶片組成,包括Vera CPU、Rubin GPU、NVLink 6交換機、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太網路交換機,通過極致的協同設計,打造成一台性能驚人的AI超級電腦,大幅縮短AI訓練時間並降低推理Token生成成本。

Rubin平台以Vera Florence Cooper Rubin命名,這是一位具有開創精神的美國天文學家,她的發現改變了人類對宇宙的理解。新平台包括NVIDIA Vera Rubin NVL72機架級擴展解決方案和NVIDIA HGX Rubin NVL8系統,引入了五項創新技術,分別為Vera CPU、新一代NVIDIA NVLink互連技術、第三代Transformer引擎、第三代NVIDIA機密計算、以及第二代RAS引擎。

Vera CPU擁有88個定製的Olympus核心,完全兼容Armv9.2,採用了「空間多線程(spatial multi-threading)」技術,可支持176個線程,每個核心擁有2M的L2緩存,另外還有162MB的統一L3緩存;最大支持1.5TB SOCAMM LPDDR5X記憶體,提供了1.2 TB/s的記憶體帶寬;支持超高速NVLink-C2C互連技術,對應帶寬可達到1.8 TB/s;支持PCIe 6.0和CXL 3.1標準。

Rubin GPU由兩顆Die組成,集成了224個SM,第六代Tensor Core,HBM4提供了22 TB/s的帶寬,每顆GPU擁有3.6 TB/s的NVLink帶寬,NVFP4推理和訓練性能分別達到了50/35 PFLOPS。與之前一樣,英偉達還將兩個Rubin GPU和一個Vera CPU組合在一起,帶來了Vera Rubin Superchip,晶片之間通過NVLink-C2C互連技術連接。

NVLink 6交換機是Rubin平台的擴展架構,讓Vera Rubin NVL72的Rubin GPU能夠作為一個單一的、緊密耦合的加速器運行,在通信主導的工作負載下實現均勻的延遲和持續的帶寬。每個Rubin GPU都通過NVLink 6得到了3.6 TB/s的雙向帶寬,相比上一代產品帶寬翻倍。

ConnectX-9作為Spectrum-X以太網架構的智能端點,提供可預測的橫向擴展性能,並強制執行流量隔離和安全操作。在Vera Rubin NVL72里,每個計算托架包含四塊ConnectX-9 SuperNIC網卡,為每個Rubin GPU提供1.6 Tb/s的網路帶寬。

BlueField-4 DPU負責控制、安全、數據傳輸和編排,作為AI工廠的軟體定義控制平面運行,獨立於主機CPU和GPU實現安全性、隔離性和運行確定性。其集成了Grace CPU,共有64核心,遠高於BlueField-3 DPU的16個Cortex ‑A78核心,同時還配有128GB LPDDR5X記憶體以及ConnectX-9,可提供高達800 Gb/s的超低延遲以太網或InfiniBand連接。

Spectrum-6以太網路交換機基於共封裝光器件的新一代Spectrum-X技術,為Rubin平台引入了以太網光子學,可以更好地支持AI工廠的橫向擴展和橫向擴展部署。其針對AI工作負載進行了優化設計,具有高度同步性、突發性和非對稱性。通過使用200G PAM4 SerDes,將每個交換晶片的帶寬提升至102.4 Tb/s。

Vera Rubin NVL72基於第三代NVIDIA MGX機架設計,採用了模塊化配置,支持熱插拔。其擁有72個Rubin GPU、36個Vera CPU、以及18個BlueField-4 DPU,通過NVLink 6交換機協調工作,再利用Spectrum-X技術將平台擴展到機架之外,將八套Vera Rubin NVL72整合成NVIDIA DGX SuperPOD,NVFP4推理和訓練性能分別達到了3.6/2.5 EFLOPS。

HGX Rubin NVL8系統是專門針對x86架構打造的生成式AI平台,通過NVLink技術連接8個Rubin GPU,能夠高效加速AI訓練、推理及高性能計算(HPC)等多元化工作負載,也能靈活地整合至DGX SuperPOD。

英偉達表示,包括亞馬遜AWS、谷歌、微軟Azure和甲骨文在內的多家雲服務供應商將於2026年率先部署基於Vera Rubin的實例。






