HPE近期宣布將推出面向大語言模型(LLM)的人工智慧雲,這也凸顯出該公司制定的差異化戰略,希望藉此為自家高性能計算業務拓展出持續增長的市場空間。
儘管HPE在超級計算智慧財產權方面確實擁有一定儲備和優勢,但公有雲廠商在AI領域仍然保持著實質性的領先。畢竟OpenAI的ChatGPT等生成式AI完全依賴於雲基礎設施及其海量算力資源。於是問題就非常明確:HPE能否提供獨特的算力和賣點,在這場競爭中占據主動並開闢新的利潤通道?
在本文中,我們將解讀HPE在日前Discover大會上發布的LLM即服務公告,嘗試從中為以下問題找出答案:HPE的戰略是否能夠代替公有雲及私有雲,成為AI模型部署的可行方案?抑或說,HPE最終只能成為市場上的小眾玩家?就這個問題,我們邀請到CUBE分析師Rob Strechay和Constellation Research公司副總裁兼首席分析師Andy Thurai共同討論。
HPE發布AI雲公告
2014年,即惠普與HPE正式拆分之前,惠普曾宣布推出Helion公有雲。但項目在短短兩年後即被關閉,並將公有雲市場拱手讓予亞馬遜雲科技。當時HPE落敗的原因很明確:缺乏能夠與亞馬遜競爭的規模化和差異化優勢。
HPE無疑堅信這次的嘗試會有所不同。在上周的Discover大會上,HPE將GreenLake即服務平台擴展至AI雲市場,希望能通過HPE超級電腦支持的多租戶服務為客戶提供大語言模型。
HPE目前正與來自德國的初創公司Aleph Alpha GmbH合作,後者專門研究大語言模型,且重點關注可解釋性問題。HPE認為,可解釋性對於特定領域的AI應用戰略至關重要。HPE的首款產品將接入Luminous,即Aleph Alpha預訓練的LLM。企業客戶可以導入自己的數據,通過專有資訊來訓練和微調出適合需求的自定義模型。
我們邀請到Strechay和Thurai解讀這份公告,並談談自己的看法。以下為此次對話的內容摘要:
討論的核心,是HPE計劃以「即服務」模式開放Cray超級計算基礎設施,降低市場上的高性能計算資源獲取門檻。
以下幾個關鍵點值得注意:
Strechay肯定了HPE利用其Cray技術提供超算資源即服務的創新思路,但指出這份公告距離實際上市還有約半年時間。他表示HPE目前仍是LLM市場上的追隨者,只是這種以高性能計算作為切入點的思路確實新穎。
Thurai同意Strechay的評估,但態度上更為樂觀,表示HPE提出的商業模式對於大規模工作負載可能具備吸引力。他發現用戶無需任何微調,即可把最沉重的工作負載移交給HPE打理。
但Thurai也表達了自己的擔憂,他認為HPE的公告中缺乏關於機器學習運營(MLOps)等關鍵議題的具體細節,並強調在對HPE戰略的可行性做出最終判斷之前,需要先深入了解這些細節。
Strechay也指出,HPE的這款產品更多屬於平台即服務,而非基礎設施即服務。
總結:
分析師們對於HPE公布的戰略持謹慎樂觀態度,指出該戰略有望徹底改變大型工作負載和高性能計算任務的處理方式。但二人也都認為,在得出任何實質性結論之前,HPE還須提供關於執行計劃的更多細節,特別是圍繞MLOps的細節。歸根結底,決定戰略成敗的永遠在於執行。
縮小工作量範圍以實現聚焦
Strechay和Thurai還進一步討論了HPE計劃通過其新LLM即服務產品解決的相關工作負載,包括氣候建模、生物/生命科學、醫療保健和潛在的財務建模。分析師們同時分享了HPE與Aleph Alpha這家不太知名的初創公司間的合作關係。
以下幾個關鍵點值得注意:
Strechay確定了HPE計劃衝擊的三大主要領域——氣候、生物/生命科學與醫療保健。他們認為這些領域確實是Cray超級計算基礎設施的專長方向,而HPE為此類客戶提供基礎設施即服務確實能夠簡化實施流程。
Strechay強調了該產品的PaaS性質,表示用戶可以選用HPE的模型,也可以導入自己的模型(例如來自Anthropic的模型)。這樣的PaaS性質,意味著用戶可以跳過自建基礎設施的艱難過程。
Thurai討論了HPE與Aleph Alpha間的合作夥伴關係,並指出HPE的最終目標是展示其訓練LLM的能力。目前,市場對於LLM訓練的需求已經與傳統高性能計算任務基本持平。
Thurai指出,他對HPE的演示內容表示讚賞,但仍強調其中缺乏對各類AI、機器學習和深度學習工作負載的處理細節。他還提到,儘管HPE對開源抱有濃厚興趣,但尚不清楚生態系統能否提供建立強大AI/機器學習服務所需要的全面組件。
總結:
HPE的新戰略有望讓超級計算即服務在氣候、醫療保健和生物/生命科學等重要領域成為現實。儘管合作夥伴並非主流廠商,但與Aleph Alpha的協同已經標誌著HPE在處理大規模AI工作負載方面邁出了堅實的一步。不過雖然方向上沒什麼問題,但HPE的宣傳材料缺少對各類AI、機器學習和深度學習工作負載以及整體生態系統的細節處理方法,所以前景仍然不夠明朗。
我認為在歐洲,環境可持續性政策將對HPE有很大幫助。相比之下,HPE在北美市場的優勢可能相對不明顯。 – Rob Strechay
當高性能計算遇上AI
HPE的基本思路非常簡單:高性能計算與AI領域的碰撞,將為其帶來獨一無二的競爭優勢。事實上,HPE在高性能計算領域確實處於領先地位,具體參見下圖。
HPE憑藉其Frontier和Lumi系統超算,在全球超級電腦榜單上分列第一和第三位。二者均使用HPE的Slingshot互連,這也是系統中的一大關鍵差異化因素。
HPE還認為生成式AI這類工作負載的獨特性,能夠與自己掌握的超級計算專業知識良好契合。HPE人工智慧首席技術官Eng Lim Goh博士對傳統雲工作負載和新一代AI工作負載間的區別,作出了這樣的描述:
傳統雲服務模型是在大量電腦伺服器上運行大量工作負載。但對於大語言醋,是在大量電腦伺服器上運行單一工作負載。因此二者之間的可擴展性表現有很大差別。因此我們才需要引入超級計算專業知識,幾十年來我們一直利用這些知識在眾多電腦伺服器上運行單一巨型工作負載。
以下是分析師們的討論摘要:
Strechay和THurai深入研究了HPE在大語言模型市場中的積累和潛力,同時分析了未來可能面臨的挑戰。Strechay借鑑了該公司在處理大型應用方面的豐富經驗,表示這些積累確實能為HPE帶來一定優勢。然而,Thurai似乎對HPE基於過往經驗適應市場需求的能力持懷疑態度。
討論中有以下幾點值得注意:
Strechay承認HPE在跨大量伺服器運行大型應用程序方面擁有深厚的歷史沉澱和經驗積累,過去參與開放網格論壇和全球網格論壇的經歷似乎也有幫助。他將HPE與NASA及能源部等重要實體的長期合作關係及經驗,也視為重要的潛在競爭優勢。
Thurai則對HPE服務在主流市場上的吸引力表示了質疑,稱其可能在小眾市場上表現更佳。他認為HPE遠不是市場上唯一的高性能計算服務商,表示亞馬遜的HPC服務也同樣強大、甚至更具知名度。
對公有雲服務商相比,Thurai對HPE所能訪問到的數據量表達了擔憂,稱受到數據訪問能力的限制,大部分創新和AI工作負載終將流向超大規模企業。他承認HPE擁有強大的超級電腦和存儲容量,但質疑當前面向更廣泛的通用類工作負載進軍的決定可能不是最理想的發展思路。
總結:
HPE在管理廣泛的通用應用程序和長期合作關係方面擁有豐富的經驗和淵源,這可能為其進軍大語言模型市場帶來一定優勢。然而,創新工作負載對於數據訪問能力和市場競爭力也提出了嚴苛要求,HPE未必跨越得了這道障礙。儘管該公司擁有強大的超級電腦和存儲資源,但目前無法確定其能否將這些資產真正轉化成優於競爭對手的亮眼產品。
永遠向「錢」看:HPE各業務部門剖析
下面,我們來看看HPE目前的各條業務線,及其AI和高性能計算業務線的各自表現。請注意,HPE於2019年收購了Cray,之前幾年還收購了Silicon Graphics,這些都是其在高性能計算領域占據領先的重要操作。
先看HPE最近一個季度的表現:高性能計算和AI業務價值數十億美元,而且規模仍在不斷增長,但本質上看仍僅僅維持著收支平衡。也就是說,雖然風光大盛、引人注目,但這部分業務還沒有真正帶來收益。智能邊緣(Aruba)是目前另一顆耀眼的新星,年化收入超過50億美元,經營利潤高達27%。所以從吸金能力的角度看,這才是HPE最好的業務,產生的利潤幾乎與伺服器業務持平。
HPE首席執行官Antonio Neri這樣描述公司的優勢:
只要認真觀察公有雲架構,就會發現它是一種大規模的傳統網路架構,有干有葉,各種通用型工作負載在同樣的架構之上運行並與數據對接。相比之下,LLM架構更適合AI原生架構,其網路結構將完全不同。這就是Slingshot的意義所在,該網路的運作方式同傳統網路大相徑庭。很明顯,我們需要接入各個GPU或CPU的網卡,還要附帶一大堆加速器。爭用軟體管理則須具備晶片可編程能力。Slingshot能夠解決所有需求,是我們多年以來長期開發的心血和結晶。目前的公有雲廠商大多還沒有開發出自己的網路,而仍在使用Arista、思科或瞻博等公司的產品。我們則擁有專有網路。順帶一提,英偉達也有自己的專有網路。但我們的生態系統中其實包含多生態元素,能夠為其提供全面支持。因此與其在公有雲領域投入大量時間和精力去追趕,不如直接一步到位。另外還要注意,AI基礎設施代表著一種完全不同的計算棧,比如說直浸式液冷設計等,總之代表著前所未有的設計思路。
下面是兩位分析師的討論總結:
Thurai認為HPE雖然在AI領域的參與度不低,但承擔的大部分工作仍然是傳統的高性能計算類工作負載。HPE在AI工作負載(包括LLM)的關注仍主要保留在演示層面,拿不出此類系統的實際工作案例。Thurai懷疑HPE究竟能不能說服用戶在其伺服器上運行LLM工作負載,畢竟生態系統和MLOps的缺失很難讓受眾下定決心。
Thurai還補充道,為了訓練模型,HPE必須在業界建立廣泛的合作夥伴關係,例如與Hugging Face等公司合作等。但HPE並沒有提到這方面問題。與AWS相比,HPE的策略似乎側重於將傳統HPC工作負載強行「更名」為AI工作負載,但理性人士恐怕不會支持這種過於粗暴的定義方式。
總結:
關鍵問題在於,HPE專注於傳統HPC工作負載的策略能否盈利。儘管HPE的網路和互連成果為其帶來了潛在優勢,但這些優勢可能並不長久,畢竟商業組件的獲取門檻不是特別高。數據中心液冷方面的專業知識倒是不錯,但真正的問題還是取決於同競爭對手相比,HPE到底有沒有將客戶數據吸引至自家平台的能力。
IT決策者如何看待生成式AI與LLM
接下來要探討的問題是:HPE的服務到底能不能成為主流,還是說註定只是一場小眾狂歡?
之前我們已經展示了部分企業技術研究數據,詢問組織如何看待生成式AI與LLM,特別是已經在評估或者生產落地了哪些相關用例。請注意,34%的組織表示還沒有進入評估階段,我們認為這個比例確實高得超出預期。至於已經開始探索的受訪者,主要用例就是大家能想到的那些:聊天機器人、代碼生成、編寫營銷方案、總結文本等。
HPE對此倒是有不同觀點。他們專注於非常具體的市場區間,面向那些擁有自己專有數據、希望利用這些數據訓練模型,但又不想自行購買和管理超級計算基礎設施成本的受眾。HPE堅信,憑藉自己手中獨特的智慧財產權積累,他們能夠提供比公有雲服務商更加可靠、更具成本效益且可比肩雲優勢的新方案。
這就帶來了新的問題:HPE到底有沒有注意到,其提到的這些主流用例並不足以轉化為HPE的資金收益?HPE的發展戰略到底是否有利可圖?
雖然我們主要對HPE的LLM策略採取觀望和「擱置」的態度,但仍有以下幾點值得關註:
我們相信,HPE可以通過向那些沒有手段或資源在該領域進行大量投資的企業提供超級計算容量,從而找到有利可圖的小眾市場。HPE不一定需要與亞馬遜等主要參與者直接競爭。
Thurai一直強調將AI領域的創新工作負載和成熟工作負載區分開來。在創新工作負載一側,優先事項主要是實驗和速度。而隨著AI模型發展成熟,優先事項也會發生變化,屆時安全、治理、道德、可解釋性、可持續性和責任劃分等問題會變得更加重要。
HPE將自身定位為這類成熟工作負載的首選解決方案,希望承擔起相應的複雜任務。如果能夠明確傳達這一賣點,而且市場走勢也確實與戰略預期保持一致,那HPE應該有機會取得成功——其中可持續性因素的意義最大。此外,這樣的策略也確實讓HPE得以凸顯其強大的高性能計算實力和市場地位,有助於鞏固客戶信心。
總結:
HPE的戰略主要面向AI市場上的特定領域——處理HPC工作負載的部分。考慮到其中涉及的特殊需求和複雜性,這片小眾市場也有可觀的盈利機會。然而,最終結果仍取決於HPE能否有效傳達自身價值主張與市場趨勢的一致性。
AWS:「一切終歸於雲」……HPE:「真的嗎?我不信」
在Discover的主舞台上,我們聽到了兩種截然不同的觀點:
AWS的Matt Wood與HPE掌門人Neri一起登上了舞台。但令人驚訝的是,Wood發言的大意是「隨著時間推移,我們相信大部分工作負載將逐步轉移至公有雲。」沒錯,他就這麼當著全體HPE客戶的面表達了這樣的觀點。
隨後Neri用半開玩笑的形式予以反駁,稱「這個世界是很複雜的,老哥。而且會永遠複雜下去。」
不知道大家看沒看過《伴娘》這部電影,裡面兩位伴娘都想在對唱里壓對方一頭。這次關於LLM的討論,AWS和HPE兩派也頗有這種意味。HPE提出的概念是:超級計算工作負載與常規雲工作負載不同,而HPE掌握著可靠、可持續、高效運行這類工作負載的專業知識。而AWS這邊不光是Matt Wood,CEO Adam Selipsky也強調說LLM將完全依賴於公有雲所提供的海量算力資源。
在《伴娘》一片的結尾,兩位主角重歸於好,所以這兩種觀點可能也各有空間。雖然我們相信LLM所對應的公有雲市場將不斷壯大,但對這種增量還很難給出量化評估。
兩位分析師對此做出這樣的解釋:
HPE需要發揮自身優勢,其中一大核心優勢就是超級計算。HPE可能不會與公有雲直接競爭,但可以在市場上開闢出自己的專屬空間。
HPE的LLM雲將在未來半年左右全面推出,而決定戰略能否成功的關鍵絕不止於這個階段。相反,我們堅信這將是一段「長尾」過程,HPE戰略的全面影響和結果需要更長的時間才會逐漸顯現。
一旦模型經過訓練並準備好投入生產,對可持續性和其他因素的考量將變得更加重要。雲可以作為初始開發和實驗的良好「場地」,並在準備就緒後將模型全面引入HPE的生產環境。
總結:
我們相信HPE這種充分發揮自身優勢(特別是在超級計算領域)的作法有其合理性。然而,在選定的AI市場領域內取得成功,恐怕將是一個長期的過程,而且需要在客戶群體內為HPE塑造出AI參與者的人設。為此,該公司必須利用其分銷渠道吸引更多以AI實力聞名的關鍵合作夥伴。
HPE必須通過關鍵合作夥伴關係,讓受眾意識到其AI能力
儘管在產品組合中廣泛應用到AI,但HPE在AI領域的存在感並不算強。通過以下ETR數據,我們可以看到機器學習/AI市場上各家廠商的相應份額。雖然不見蹤影,但HPE好在還有機會同技術領先者們攜手合作、共享發展路徑。
上圖的縱軸所示,為淨得分/份額趨勢,以及機器學習/AI參與廠商在ETR數據集中的普遍度或者說「存在感」。首先值得關注的自然是三大雲巨頭:微軟、AWS和谷歌,在圖表當中也是一騎絕塵。它們無處不在,而且都在40%紅色虛線的上方,代表著擁有強勁的AI業務勢頭。
Databricks明顯也是調查當中的佼佼者。
OpenAI更加值得關注。我們瀏覽了7月份的ETR數據,可以看到OpenAI創下了新的記錄,甚至在淨得分上突破了之前Snowflake保持的極值。在接下來一段時間,OpenAI將成為絕對的主流,其勢頭甚至不輸於IT領域的頭部大廠。
HPE未能出現在榜單當中並不意外。也許隨著時間的推移,該公司將逐步實現願景,慢慢出現在甲骨文和IBM所處的位置。
下面來看兩位分析師給出的觀點:
AI市場上的多數公司都專注於訓練大語言模型、重新訓練現有模型和微調模型。
但HPE採取了完全不同的切入點,其定位就是處理最重要、最複雜的模型,讓客戶充分利用HPE多年積累的計算、網路和存儲技術優勢。
HPE的這項戰略能否成功仍是個未知數,至少還要一年時間才能評估HPE思路的有效性並確定客戶反應。
總結:
HPE在AI領域的戰略與各家競爭對手有所不同,其定位就是處理最重要、最複雜的模型,讓客戶充分利用HPE多年積累的計算、網路和存儲技術優勢。但HPE的這項戰略能否成功仍是個未知數,至少還要一年時間才能評估HPE思路的有效性並確定客戶反應。
值得關注的因素
最後,我們討論了HPE在當前受關注領域所具備的競爭優勢和面臨的挑戰。
討論內容可以總結為:
我們認為HPE的競爭優勢主要體現在基於Cray技術的基礎設施軟體上,而不止於LLM範疇。
HPE的AI生態系統目前還很薄弱,缺乏模型倉庫、模型共享和強大的軟體棧支持。HPE可能需要與模型廠商合作來補齊這塊短板。
HPE的一大潛在優勢,可能是「自帶模型」方法,即為客戶提供一套簡單易用的環境來訓練AI模型,並提供全面的技術支持。
另一大潛在優勢,可能是HPE強大的部署和推理處理能力,這同樣是AI領域的重要難題。對HPE來說,小型AI模型和邊緣計算也許會帶來可觀的業務發展空間。
HPE對可持續發展的關注,可能會成為未來的差異化因素。但其仍面臨著重大障礙,例如說服客戶將數據轉移至HPE環境當中。
總體而言,我們很高興看到HPE在本屆Discover上沒有討論量子計算。雖然噱頭滿滿,但量子計算還遠沒有為實際應用做好準備,所以過多宣揚實在沒什麼意思。
寫在最後:
HPE在AI和高性能計算市場的競爭優勢,主要體現在其基礎設施軟體和處理大規模複雜模型的能力上。HPE在AI的部署和推理方面也具有潛在優勢,且有望從未來各國對可持續性的關注中受益。然而,HPE仍面臨著重大障礙,包括如何加強AI生態系統並說服客戶將數據移交過來。
總的來說,我們對HPE在GreenLake中引入LLM即服務給予高度評價。此外,Neri領導下的HPE也開闢出了一條清晰的差異化競爭道路,隨著時間推移應該有望轉化為紅利。HPE的AI雲產品將在未來半年之內推出,目前還不清楚其集成度如何,因此我們將密切關注這個重要的成熟度指標。最後一個關鍵點在於,光是把HPC業務標記成AI還不夠,HPE需要想辦法真正從新戰略中獲取收益、賺到利潤。
而這,才是真正決定成敗的核心。