Nvidia在一份新路線圖中透露,計劃在2024年和2025年發布自己強大且受歡迎的H100 GPU後繼產品,主要用於AI訓練和推理,這也反映出Nvidia把AI晶片的發布策略從之前的每兩年發布一次改為了每年發布一次。
Nvidia網站上公布的一份投資者演示文件中包含的路線圖還顯示,這家AI晶片巨頭計劃在接下來的兩年中發布L40S通用加速器後繼產品以及Grace Hopper Superchip,後者是GPU和CP相結合的產品。
此外,根據Nvidia在私人投資者會議上披露的路線圖顯示,Nvidia計劃推出一種新的晶片類別,它是Grace Hopper Superchip的一個分支,具有增強的AI訓練和推理計算能力,一位Nvidia新聞發言人這樣表示。
這個資訊是在網上發布的,當時生成式AI工作負載讓市場對晶片的需求激增,Nvidia面對英特爾、AMD、眾多晶片初創公司以及AWS等雲服務提供商的競爭,後者試圖奪取市場份額,而Nvidia希望能夠捍衛自己在AI計算領域的主導地位。
2024年推出H200和B100 2025年推出尚未命名的GPU
在路線圖中,Nvidia將把AI晶片新品的發布改為「一年節奏」,從2024年推出H200開始,H200是今年H100的後繼產品,而H100是Nvidia當前產品線中最強大的一款GPU。H200將使用與H100相同的Hopper架構。
Nvidia將H200、前身及後繼產品定位為專為運行在英特爾或者AMD x86 CPU系統上的AI訓練和推理工作負載而設計的。
H200的後繼產品是B100,預計也會在2024年推出。有多個傳言表明,「B」代表名為Blackwell的下一代GPU架構。
Nvidia發言人在回應時表示,在B100之後將有一款尚未正式命名的100系列GPU於2025年推出,暫定為「X100」。
Grace Hopper的後繼產品L40S將於2024年及以後推出
Grace Hopper也稱為GH200,是Nvidia新系列晶片中的首款晶片,該晶片結合了基於Arm的CPU和GPU,用於數據中心的高性能AI推理工作負載。
路線圖顯示,GH200的目標是人工智慧推理,發布時間為2024年。此前Nvidia曾表示,GH200將使用Grace CPU和Hopper GPU,於明年第二季度開始在系統中使用。
Nvidia還計劃在2023年發布GH200的後繼產品GB200,採用據稱名為Blackwell的下一代GPU架構。
暫命名為「GX200」的後繼產品將於2025年推出。
路線圖的另一側是L40S,一款專為企業客戶使用x86數據中心系統設計的通用加速器。
L40S基於Nvidia的Ada Lovelace架構,專為AI推理和訓練、要求苛刻的圖形應用和模擬應用而構建,從2021年開始提供比Nvidia A100更高的性能。
Nvidia此前表示配備L40S的系統將於今年秋季推出,但路線圖把這款加速器標記為2024年的產品。Nvidia預計將在2024年晚些時候發布L40S的後繼產品稱為B40,這表明,Nvidia將使用據稱名為Blackwell的下一代架構。
2025年,繼B40之後的是一款尚未正式命名的GPU,暫定為「X40」。
Nvidia公布新晶片類別 用於基於Arm的AI訓練和推理
Nvidia的路線圖還包括一個新的晶片類別,似乎是Nvidia Superchips的升級版,結合了CPU和GPU,為基於Arm系統的AI訓練和推理工作負載提供動力。
這些晶片結合了CPU和GPU但帶有後綴「NVL」,與Nvidia用於組合兩個H100 PCIe卡的H100 SVL產品後綴是一樣的。
Nvidia尚未透露有關這些NVL晶片的進一步細節,包括是何種外形尺寸,但傳統上帶有CPU的晶片(包括GH200)是可以安裝在主板插槽中的。
Nvidia將在2024年首次推出新系列中的GH200NVL,這表明Grace Hopper Superchip具有更高的性能,專注於推理和訓練工作負載。
後繼產品GB200NVL將在今年晚些時候推出,採用據稱名為Blackwell的下一代GPU架構。
GB200NVL之後Nvidia將在2025年推出帶有NVL後綴的尚未命名晶片,暫定為「GX200NVL」。
InfiniBand、以太網產品也改為年度發布
根據路線圖顯示,Nvidia用於AI基礎設施的InfiniBand和以太網網路產品組合也將轉向每年發布的節奏。
這將從2024年Nvidia的400 Gb/s InfiniBand和以太網產品開始,品牌名稱分別為Quantum和Spectrum-X。
Nvidia預計將在2024年晚些時候升級到800 Gb/s Quantum和Spectrum-X產品,隨後在明年推出800 Gb/s產品。