短短兩天,寒武紀兩度超越貴州茅台,成為 A 股第一高價「股王」。而推動用戶預期不斷攀升的,離不開 AI 市場的持續火熱。
與之形成此消彼長走勢的是,英偉達在今日公布 2026 財年第二季度財務業績後,反而股價大跌,不過交出的成績單還是亮眼的:
營收達 467 億美元,較第一季度增長 6%,同比增長 56%
數據中心收入為 411 億美元,較第一季度增長 5%,同比增長 56%
Blackwell 數據中心收入環比增長 17%
這家曾經的遊戲顯卡廠商,如今市值突破 4 萬億美元,成為 AI 時代當之無愧的「賣鏟人」,也難怪不少人將本次財報比作解答 AI 泡沫疑慮的答卷。

被「寵壞」的市場預期,和永遠在路上的下一代產品
英偉達正被自己過去的成功所綁架,這是一種甜蜜的詛咒。
過去多個財季,英偉達每次都超越了營收預期,這種「業績超預期並上調指引」的固定模式,已經讓市場習慣於期待一次又一次的超預期。
但問題是,當英偉達總是給出 110 分的答案,那麼 100 分就顯得像是不及格。
在財報前夕,市場關注的焦點集中在新一代 Blackwell GPU 和 NVL72 機架的大規模部署上。
從技術角度看,這種期待並非空穴來風。
英偉達花費數年時間打造了 Blackwell NVLink 72 系統 ——一種機架級計算平台,使其能夠作為一個單一的巨型 GPU 運行。

從 NVLink 8(節點級計算,每個節點是一台電腦)過渡到 NVLink 72(機架級計算,每個機架是一台電腦),不僅帶來了數量級的性能提升,也就意味著更高的能效和更低的 Token 生成成本。
英偉達創始人兼 CEO 黃仁勛表示:
「Blackwell 是全球期待已久的人工智慧平台,帶來了卓越的一代飛躍 —— Blackwell Ultra 正在全速量產,市場需求極為強勁。」
新一代核心 Blackwell 架構的 B100/B200 系列,性能相比 H100 提升了 2.5 倍。GB200 NBL 系統正在被廣泛採用,已在國內外雲服務商和網際網路公司大規模部署。
包括 OpenAI、Meta 等廠商也正在數據中心規模上使用 GB200 NBL72,不僅用於訓練下一代模型,也用於生產環境中的推理服務。

且由於 GB200 與 GB300 在架構、軟體和物理形態上的兼容性,使得主要雲服務商向新一代基於 GB300 的機架架構過渡過程十分順暢。
據英偉達 CFO Colette Kress 透露,7 月下旬和 8 月上旬的工廠產線已順利完成轉換,以支持 GB300 的爬坡生產。
「目前已全面進入量產階段,產能恢復到滿負荷,每周大約生產 1000 個機架。隨著更多產能的上線,預計在第三季度內產量還將進一步加快。我們預計在下半年實現大規模市場供應。」
按照慣例,Blackwell 之後還有代號「Rubin」的下一代架構,預計 2026 年推出,隨後是 2027 年的「Rubin Ultra」。這種快速疊代的節奏,既保持了技術領先,又讓競爭對手永遠在追趕路上。

英偉達 CFO Colette Kress 對 AI 市場的發展有著更為龐大的野心,她在財報電話會議上表示
「我們正處在一場將改變所有行業的工業革命開端。預計到本十年末,AI 基礎設施的投入將達到 3 到 4 萬億美元。
這一增長主要來自雲廠商到企業的資本開支,僅今年就預計在數據中心基礎設施和算力上的投資將達到 6000 億美元,兩年間幾乎翻倍。」
這也是過去很長一段時間,英偉達反覆強調的事情——英偉達已經不再是單純的 GPU 公司,而是一家不折不扣的 AI 基礎設施公司。
黃仁勛今天凌晨的原話是這麼說的:
以 1GW 規模的 AI 工廠為例,造價可能在 500 億至 600 億美元之間,其中大約 35% 左右由 NVIDIA 提供(上下浮動)。這裡客戶獲得的不僅僅是 GPU。
雖然我們以 GPU 的發明而聞名,但過去十年,我們已經轉型成為一家 AI 基礎設施公司。要打造一台 Rubin AI 超級電腦,就需要六種不同類型的晶片。而要擴展到 1GW 規模的數據中心,就需要數十萬 GPU 計算節點和大量機架。因此,我們的定位是 AI 基礎設施公司,希望能持續推動這個行業的發展,讓 AI 更有用。
並且,在黃仁勛看來,英偉達的亮眼之處在於 GPU 的能效最佳。在電力受限的數據中心,性能功耗比直接決定了收入,而性能功耗比遠超任何其他計算平台,所以買得越多,成長越快。
尤其是當推理型與智能體 AI 的發展與普及,所帶來的算力需求呈指數級增長,而這種對 AI 計算能力「永不滿足」的需求,成了英偉達營收增長的主要引擎。
不僅如此,英偉達提供的 CUDA 並行計算平台、推理加速庫、各行業 AI 模型框架等,已成為 AI 開發者必備工具。
這種生態壁壘意味著客戶一旦採用英偉達方案,往往難以替換。換句話說,英偉達真正提供了一個面向 AI 工廠的完整全棧解決方案。
黃仁勛:將 Blackwell 帶到中國市場
這季度財報最扎眼的數據,在於明確了中國市場的影響。英偉達 2026 財年第二季度財報顯示,來自中國市場收入 27.69 億美元,比 2025 財年第二季度的 36.67 億美元縮水近 9 億美元。
相應地,黃仁勛表示,中國市場在數據中心總收入中的占比已降至「低個位數百分比」 。
當然,英偉達的當務之急,或許就是推出一系列性能降低、符合出口管制的「合規晶片」。這一策略始於基於 Hopper 架構的 H20,並延續至基於新 Blackwell 架構的產品線。

據路透社此前報道,英偉達正在準備專為中國定製的 Blackwell 架構削減版 GPU(代號 B30A)。
該晶片性能介於受限 H20 和國際版高端 GPU 之間,如獲批准將瞄準中國高端算力需求。此外還有一款規格較低的推理晶片 RTX6000D,專門針對中國市場的特定需求。
作為全球第二大計算市場,黃仁勛表示中國市場今年對英偉達來說大約有 500 億美元的機會,而且每年會以 50% 左右的速度增長。在他看來,來自中國的開源模型質量非常優秀。
例如 DeepSeek 在全球聲名鵲起,Qwen 很出色,Kimi 也很出色。還有許多新的模型不斷湧現,它們是多模態的,是優秀的大語言模型。這些開源模型實際上推動了全球企業對 AI 的採用。

另外黃仁勛還不忘表示,將 Blackwell 帶入中國市場是完全有可能的。包括黃仁勛上個月也親自來華斡旋,表態將不遺餘力優化產品以符合監管要求,並堅定服務中國市場。
但在另一側,國內力量正在加速崛起。
最近,DeepSeek 發布了最新版本 V3.1,被稱為「邁向 Agent 時代的第一步」。
但更重要的信號還在於,DeepSeek V3.1 引入了一種稱為「UE8M0 FP8 Scale」的新參數精度格式,並明確表示這是「針對即將發布的下一代國產晶片設計」的精度格式。
DeepSeek 採用的 UE8M0 FP8 格式尤其針對國產晶片的硬體邏輯特點設計,在 8 bit 的位寬限制下(即當前低精度場景)丟棄尾數而極大擴展指數動態範圍。

這一設計讓國產晶片在大模型訓練中更穩定,高效利用每一點算力。此外,對於許多在 HBM 高帶寬內存上不及英偉達的國產晶片而言,FP8 格式有效緩解了帶寬瓶頸,讓硬體性能得到充分發揮。
而巧合的是,英偉達最近提出的 NVFP4(4 位數值格式)則在大模型預訓練領域實現了突破。
相比於以往訓練常用 16 位(FP16/BF16)或 8 位 (FP8)精度,而 NVFP4 將精度進一步壓縮到 4 位,在保持模型精度的同時大幅提升訓練速度和算力利用率。

實驗結果顯示,在 120 億參數的 Mamba-Transformer 混合模型上,NVFP4 能完整訓練到 10 萬億 token,收斂效果幾乎與 FP8 一致,下游任務測試精度也基本相同。

只是,當國產頭部晶片廠商組建「朋友圈」,共同打造適配本土晶片的軟體棧、工具鏈,也將有望提升下遊客戶對國產方案的信心。
英偉達依舊是在淘金熱中穩賺不賠的「賣鏟人」。但現在,礦場邊上湧現出越來越多本土的鐵匠鋪,正用本地的礦石和工藝,打造出更適合本地礦工的工具。