宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

ChatGPT火爆背後凸顯算力產業發展兩大短板

2023年02月17日 首頁 » 熱門科技

即使是不關注網際網路的普通大眾,這些天也會被ChatGPT刷屏。

ChatGPT針對人們的問題,給出了令人驚艷的回答,而不是以往的「天書」。

通過學習大量現成文本和對話集合,ChatGPT能夠像人類那樣即時對話,流暢地回答各種問題,包括回答歷史問題,到寫故事,甚至是撰寫商業計劃書和行業分析等。

而這一效果的實現離不開人工智慧技術的發展,特別是強大算力的支持。

ChatGPT是生成式AI的一種形式,其背後的支撐是人工智慧大模型。而大模型參數量、數據量高度擴張,算力需求陡增。

寧暢副總裁兼CTO趙雷告訴記者,ChatGPT的火爆其實凸顯了算力產業的難題——算力密度和效率,以及算力成本。

算力密度和效率是個大問題

在算力方面,GPT-3.5總算力消耗約3640PF-days(即每秒一千萬億次計算,運行3640個整日)。這僅僅指的是ChatGPT在訓練階段消耗的算力。

趙雷表示,AI模型訓練通常意義上來說要比推理高一個數量級的算力,也就是說,至少是10倍算力。對於訓練來說,一般是周級或者是月級響應;而推理的話基本上是實時或者半實時的,它的響應是秒級的。

趙雷說,ChatGPT所需要的算力是巨大的,而實現理想人工智慧的算力需求至少需要現在100-1000倍的算力。(如ChatGPT至少需要現在100倍算力,元宇宙需要現在1000倍的算力。)

ChatGPT火爆背後凸顯算力產業發展兩大短板
寧暢系列人工智慧伺服器

目前,我國總體算力不足,而且算力分布不平衡,需要進行算力協調,而這需要雲計算技術來解決。

趙雷表示,其實我們需要藉助液冷或者深度定製方式提高算力效率。算力的應用類型越窄,它的效率就會越高。越通用化,它的效率就越低。

算力成本不容忽視

效率問題與成本往往密切相關,雖然每單位算力的單價下降了,但是伺服器的成本,包括伺服器的平均售價在過去3年一直是上漲的。

根據估算,GPT-3訓練成本約為140萬美元;對於一些更大的LLM模型,訓練成本約達到1120萬美元。

按近期在國內落地的某數據中心為參照物,算力500P耗資30.2億落成,若要支持ChatGPT的運行,需要7到8個這樣數據中心支撐,基礎設施投入需以百億計。

在算力的成倍甚至是指數級增長下,伺服器耗電量和電費也將是乘倍增長。如何通過更高效的節能方式來解鎖算力,釋放功耗?

寧暢基於現有行業節能痛點,提供傳統風冷、冷板式液冷和浸沒液冷等多場景的散熱方式。其冷板式液冷可實現部件級精確製冷,使能效提升40%,以一個總負載10MW的機房為例,寧暢冷板液冷方案可助力用戶每年節省電費1580萬元,而其最新推出的業界首款搭載第四代英特爾至強可拓展處理器的浸沒液冷伺服器,其PUE最低可達1.05。

此外,寧暢通過軟硬體的調優,在單位成本上實現降本增效。根據國際測試TPCx-AI成績顯示,寧暢單位算力僅用94美元,相比平均300美元的算力成本,降低了68%的硬體成本。

ChatGPT帶來的機會

ChatGPT在應用時需要大算力的伺服器支持,ChatGPT的持續爆火也為AIGC帶來全新增量,行業對AI模型訓練所需要的算力支持提出了更高要求,也為伺服器廠商帶來更多市場空間和發展機會。

對於AI公司來說,或者開發AI應用的公司來說,時間成本高,客戶要在時間成本和硬體投資上做一個取捨和平衡。

我們可以看到,對於未來的伺服器的產品的需求,將更加理性。對於產品方案,也更加務實,同時對於IT基礎設施的生態要求需要更加包容。

ChatGPT火爆背後凸顯算力產業發展兩大短板
寧暢冷靜計算戰略發布會現場圖

基於當前的業務場景和背景的這種需求,寧暢將更加著眼於滿足客戶高質量算力的交付目標,通過自身的技術能力和產品方案的實現,為客戶找到算力最優解,實現需求與能力的雙平衡。

例如寧暢X620 G50是兼備訓練與推理功能的全能型GPU伺服器,既支持高強度計算,滿足機器學習、AI推理、雲計算等眾多應用場景需求,同時又可實現綠色節能,符合當前ChatGPT等模型對算力/伺服器的需求。

ChatGPT火爆背後凸顯算力產業發展兩大短板
寧暢X620 G50

趙雷說,伺服器的研發設計生產製造交付是以年計的,寧暢選了了AI和液冷兩個賽道,匹配市場發展需求。未來兩到三年裡,寧暢堅定不移地走定製化市場,以用戶為中心,拓展人工智慧賽道。

未來算力展望

對於未來的算力需求,更多的客戶將會面臨兩個方面的挑戰。一方面要考慮算力的足量,同時還要考慮綠色節能和可持續性發展,既要考慮當前業務的導向,政策的導向,同時不斷去把創新優化的業務場景導入進來,實現增量市場的可持續性。

在這一過程中,企業追求強大算力就會面臨高功耗和高能耗等問題,如何用更有效的方式在滿足算力需要的情況下,解鎖更高算力,釋放更多功耗。寧暢給出的答案是定製化的算力解決方案和液冷。

定製化的算力解決可量身定製用戶需求,實現從需求梳理、機房部署到智能運維的全面定製化,避免不必要的浪費,此外,使用冷板式液冷方案,可通過風液CDU等設備,在不改變傳統風冷機房部署的情況,實現向液冷過度。該方案能使能效提升40%。而寧暢近期推出的浸沒式液冷伺服器,更能將PUE降低至1.05及以下。

總體來說,ChatGPT的快速滲透、落地應用,也將大幅提振算力需求,這將刺激整個算力產業鏈,包括數據中心、AI晶片、伺服器等將迎來重要的發展機遇。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新