皮衣戰神,又來「砸場子」了!在昨天剛剛過去的 GTC 2025 秋季場,黃仁勛的演講又一次讓英偉達坐穩了晶片第一龍頭的位置,整場發布會,堪稱火力全開。

晶片龍頭的實力,戰績可查
英偉達在大會上釋放出極其強勁的營收信號,再次鞏固了其在全球 AI 計算領域的絕對領先地位。其中,Blackwell 無疑是本次英偉達的業績焦點,其大規模部署速度前所未有。
黃仁勛透露,Blackwell 在開始生產的僅僅五個季度內,預計將出貨高達 600 萬個處理器單元,增長速度是上一代產品 Hopper 的五倍,標誌著全球 AI 基礎設施的部署已進入超高速增長期。

這樣驚人的出貨量,充分反映了市場對 Blackwell 架構高性能與高能效的迫切需求,尤其是在訓練萬億級參數模型和大規模推理應用中。
根據今年三月的測試,Blackwell 在運行推理模型時,相比 Hopper 實現了大幅提升。搭載 8 個 NVIDIA Blackwell GPU 的單個 NVIDIA DGX 系統 ,在具有 671 億個參數的先進大型 DeepSeek-R1 模型上,每個用戶每秒可實現超過 250 個 token,或每秒超過 30,000 個 token 的最大吞吐量。
在 AI 大規模應用的運營成本方面,英偉達承諾通過「極致協同設計」(extreme co-design)來顯著降低 AI token 的生成成本,解決 AI 工廠的核心運營痛點。目前,Grace Blackwell NVLink 72 在生成 token 方面,成本是全世界最低的。性能提升10倍,同時成本降低10倍。

基於 Blackwell 平台及其後續的 Rubin(Vera Rubin 超級晶片平台)的初期加速部署,英偉達預計到 2026 年,這兩個產品的累計營收將有望達到 5000 億美元。
如此雄心勃勃的財務數字,底氣來自於英偉達對於 AI 基礎設施的年度更新戰略:以每年一代的速度推出計算平台,以應對業界對更大規模、更高性能 AI 模型訓練和推理的需求。

黃仁勛強調,這 5000 億美元的數字不僅代表著晶片單元的銷售,更反映了全球計算基礎設施正加速向英偉達的加速計算模型轉型,這標誌著一個萬億美元計算拐點的到來。
超級晶片的未來計算版圖
一方面,Blackwell 平台正在推動 AI 浪潮;另一方面,英偉達的目光已投向更遠的未來:下一代 Vera Rubin 超級晶片納入戰略版圖。

Vera Rubin 超級晶片延續了集成 CPU 和 GPU 的超級晶片設計理念,其中 Vera 作為定製的 CPU,而 Rubin 則作為下一代 GPU。
技術細節顯示,Vera Rubin 將帶來跨越式的性能飛躍:它將容納 6 萬億個電晶體,能夠提供高達 100 Petaflops (PF)的 AI 計算性能,並配備 2 TB 的高速緩存/快速內存。這些核心參數表明,Vera Rubin 在應對萬億級參數模型和極大規模 AI 推理任務時,將實現 Blackwell 代際無法企及的效率和速度。

作為 Blackwell 的繼任者,Vera Rubin 和 Blackwell 共同構成英偉達高達 5000 億美元的營收,象徵著公司對未來計算架構的持續疊代和投入。
在此宏大計算戰略下,英偉達同時公布了兩項重量級合作。首先是推出了 NVQ Link 互聯架構,專為量子處理器(QPU)與英偉達 GPU 超級電腦之間的高速混合模擬而設計,實現了微秒級的計算延遲。

該技術已獲得 17 家量子電腦公司和八個美國能源部(DOE)國家實驗室的支持,標誌著量子計算和 AI 計算的深度融合。
6G 來了?英偉達給諾基亞重新「抬咖」
另外一項重量級合作,則是在通信基礎設施領域:英偉達宣布與電信巨頭諾基亞建立深度戰略合作夥伴關係,共同開發下一代 6G
技術。
技術。
諾基亞未來將採用英偉達的 ARC 平台 作為其基站核心,該平台兼容諾基亞現有的 AirScale 基站,意味著全球數百萬個基站可通過英偉達技術升級至 6G 和 AI 能力。
這項合作聚焦於兩大關鍵方向:其一是 AI for RAN(AI 賦能無線接入網)。諾基亞擁有 7000 項基礎 5G 專利,結合英偉達的 AI 技術,將利用人工智慧和強化學習實時調整波束成形,優化環境下的頻譜效率。

考慮到無線網路消耗了全球約 1.5%至 2%的電力,提高頻譜效率不僅能增加數據吞吐量,同時也是一項至關重要的能源節約舉措。
另外,AI on RAN 則將無線網路轉變為一個「邊緣工業機器人云」。正如 AWS 建立在網際網路之上,英偉達和諾基亞正將雲計算能力擴展到基站邊緣,創造出一個全新的、超低延遲的計算環境。這對於需要實時決策和響應的工業機器人、自動駕駛車輛和邊緣 AI 應用至關重要,開啟了一個潛力巨大的邊緣計算新市場。

AI 即工作,時代在召喚
「如同電力和網際網路一樣,人工智慧是至關重要的基礎設施。」
這個觀點不新鮮了,但是黃仁勛又強調了一遍。他指出,當前時代的變革始於一個關鍵觀察:Dennard 縮放定律(Dennard scaling)已停止近十年,電晶體的性能和功耗增益受到物理定律的限制,傳統摩爾定律的紅利正在消退。

這種現實使得加速計算這一全新計算模型成為必要,它通過 GPU 和 CUDA 編程模型,利用不斷增長的電晶體數量來實現並行計算,突破了通用 CPU 的性能瓶頸。黃仁勛強調,CUDA 編程模型的兼容性維護是英偉達的「寶藏」,經過近三十年的發展才得以實現如今的成就。

「過去的軟體行業是關於創造工具的。Excel是一個工具。Word是一個工具。網路瀏覽器是一個工具。就像螺絲刀和錘子一樣,工具行業的規模就那麼大。而 AI 不是工具。AI 就是工作本身」(AI is not a tool. AI is work)。
黃仁勛給出了大膽的論斷,暗示著, AI 已升級為直接的生產力要素,將註定是驅動經濟增長和創新的核心力量。






