中國搜索巨頭百度本周發布了兩款全新AI加速器,這是在國家推動擺脫對西方晶片依賴背景下的重要舉措。
百度是生成式AI技術的早期採用者,開發了文心等大語言模型系列。與亞馬遜和谷歌等西方雲服務提供商一樣,百度多年來一直在設計定製加速器。
據《南華早報》報道,這家搜索提供商的最新一代晶片旨在降低推理成本並支持更大、更複雜的架構。
公司計劃明年發布新的推理優化晶片M100。該晶片由其崑崙晶片業務部門開發,旨在更好地服務下一代專家混合模型。正如我們最近探討的,專家混合架構在大規模推理方面面臨特殊挑戰,特別是當模型規模超出單個加速器或伺服器時。在許多情況下,互連帶寬和延遲成為瓶頸,影響性能。
百度似乎通過構建更大的計算域來規避這一特定問題,這與AMD和英偉達在其機架級架構方面的做法相似。百度計劃從2026年初開始以名為天池256的集群配置提供這些晶片。顧名思義,該配置將配備256個M100加速器。
據報道,百度將在2026年底推出天池512,將系統擴展到更大的計算域,使系統的推理能力翻倍。
除了推理服務,百度還在開發一款更強大的訓練優化晶片M300,將於2027年首次亮相。該晶片旨在支持多萬億參數模型的訓練,這類模型在過去一年中變得越來越普遍,月之暗面的Kimi K2就是一個例子。
除了新的矽晶片,百度還宣布了文心5.0,這是其最新的基礎模型,能夠處理文本、圖像、音頻和影片。
百度的最新硬體凸顯了中國在戰略上從英偉達加速器轉向的趨勢。據報道,北京官員向科技巨頭施壓,要求其放棄西方供應商,轉而支持國內替代方案。
上周,英偉達首席執行官黃仁勛承認,在中國銷售其Blackwell加速器的努力已經停滯,目前沒有"積極的討論"。
這種巨大變化推動了華為和其他中國晶片製造商(包括壁仞、寒武紀
科技和燧原科技)將國產GPU推向市場的努力。
今年早些時候,我們研究了華為新的CloudMatrix 384機架設備。雖然在效率上遠不及英偉達的Blackwell系列,但它們通過純粹的規模來彌補這一點。
Q&A
Q1:百度M100晶片有什麼特點?什麼時候發布?
A:M100是百度計劃明年發布的新一代推理優化晶片,由崑崙晶片業務部門開發,專門用於更好地服務下一代專家混合模型,旨在降低推理成本並支持更複雜的架構。
Q2:天池256和天池512系統有什麼區別?
A:天池256將從2026年初開始提供,配備256個M100加速器。天池512將在2026年底推出,是更大的計算域配置,推理能力是天池256的兩倍。
Q3:百度為什麼要開發自己的AI晶片?
A:這是響應中國國家推動擺脫對西方晶片依賴的戰略需求。北京官員向科技企業施壓,要求放棄西方供應商轉而支持國內替代方案,英偉達在中國的銷售也已停滯。






