隨著超異構計算需求的升溫,賣得少同樣可以賺得多。
儘管2023年全球服務器出貨量可能較上年減少20%,但廠商收益仍有望保持增長。而這背後的原因,正是由超異構計算推高的系統晶片附加值。
根據之前的相關報道,數據中心正根據AI工作負載的需求進行重塑。這種轉變要求運營方設計出配置更高、成本更可觀的計算系統,因此能夠在總需求下降的背景下拉動硬體收入持續增長。
在最新發布的雲與數據中心市場調查中,Omdia預測2023年全年服務器出貨量將下降17%至20%,但收入卻將增長6%到8%。
市場研究人員還專為這種趨勢創造了新的術語:超異構計算,是指配置有協處理器以針對特定應用程序進行性能優化的服務器類型。
而反映這一整體趨勢的典型實例,就是配備有AI加速器的服務器設備。Omdia表示大語言模型訓練目前最流行的底層配置是英偉達DGX服務器,配備有8到個H100或A100 GPU。同樣符合超異構計算標籤的還有亞馬遜的AI推理服務器,這些硬體配備有名為Inferentia 2的定製化協處理器。
超異構計算還涵蓋採用其他協處理器類型的系統,例如搭載20個定製影片編碼單元(VCU)的谷歌影片轉碼服務器。Facebook母公司Meta也擁有類似的硬體,其影片處理服務器上就配備有12塊定製的Meta可擴展影片處理器(Scalable Video Processors)。
Omdia表示,這一趨勢正在推高服務器中的晶片密度。預計到2027年,CPU與協處理器將占數據中心總支出的30%,遠高於過去十年間的20%比例。
除了媒體處理和AI之外,Omdia預計資料庫和網絡服務等工作負載未來也將迎來類似的發展趨勢。
目前很多資料庫已經開始引入計算式存儲的SSD形式加速器,可通過片上處理器提高鍵值性能。
從調查數據來看,微軟和Meta的GPU部署速度超過了其他超大規模基礎設施運營商。到今年年底,兩家公司都將掌握15萬個英偉達H100加速器,達到谷歌、亞馬遜和甲骨文的3倍。
另據Omdia的調查,超大規模雲服務商正在瘋狂集中GPU資源,導致戴爾、聯想和HPE等服務器製造商由於沒有充足的英偉達配額而難以履行GPU服務器訂單。目前對於配置H100 GPU的服務器,其交貨周期已經延長至36至52周。
這些高配服務器的落地,也極大刺激了市場對於數據中心供電及冷卻設施的需求。今年上半年,機架配電套件的收入同比增長17%,UPS套件支出也提高了7%。
此外,液體冷卻系統預計將迎來大幅增長。Omdia通過OEMS發布的數據判斷,今年直接晶片液冷支出將增長80%;超大規模供應商Supermicro也提到,預計第四季度出貨的系統中將有20%配備液體冷卻。
作為快速提升供電能力的一種重要方式,數據中心預製模塊也開始興起。Omdia發現部分供應商已經報告稱,市場對這些包含額外開關、UPS、電池及配電套件的預製模塊的需求增加了一倍。
Omdia預計,從現在到2027年,全球數據中心總支出將保持10%的年均增長率,屆時總額將達到4684億美元。