如今,IT分析領域只有一個核心議題——大語言模型(LLM)機器學習和生成式AI(GAI)。去年11月底發布的ChatGPT聊天機器人在全球範圍內引發巨大關注,一周內用戶量突破100萬;谷歌Bard和亞馬遜Titan等類似的基礎模型也同樣掀起熱潮。
此類生成式AI能夠理解文本提示並輸出有效答案,在被引入商業和公共部門的IT領域之後,這項技術有望從根本上提高搜索和分析質量。AI的普遍應用有望在未來十年內取代並/或提高各類知識工作者的生產力,包括客服中心、內部銷售人員、會計師、律師和金融分析師。
生成式AI熱度的快速升溫將對IT行業產生影響,Forrester、Gartner等分析師和研究機構也在預測後續衝擊。部分數據存儲行業將憑藉生成式AI獲取巨大的潛在銷售收益,本文將嘗試對此做出分類。
William Blair發布的126頁《生成式AI:自動化的新前沿》報告提供了大量資訊。
硬體
DRAM – 運行大語言模型訓練和推理的CPU/GPU伺服器將迎來強勁需求,其中包括用於GPU的高帶寬內存HBM。
PCIe – PCIe 4和5.0組件供應商應該為需求激增做好準備。
CXL – CXL 2.0內存池也將從大語言模型的火熱中得到一劑強心針,包括CXL硬體供應商。因此,三星、SK海力士等DRAM擴展器、CXL交換機和其他組件廠商都將獲得收益。
NAND與SSD – 需求必然越來越多,主要集中在NVMe、PCIe 4.0和5.0連接以及性能與容量的組合。因此QLC和高層數TLC NAND也將因此受益。所有NAND晶圓廠和SSD供應商都應關注這方面市場。
存儲陣列 – 市場需要高容量和高速IO。AI/機器學習集群將需要PB級別的容量。大語言模型訓練的運行需要配合高速數據集讀取和檢查點寫入,這種並行訪問必然依賴於硬體和軟體。大語言模型的推理運行需要高讀取訪問率,以及到處理器的並行數據傳輸路徑。
考慮到現實需求,這波熱潮可能主要有利於使用NVMe協議和支持英偉達GPU伺服器GPUDirect的文件訪問全閃存陣列。DDN、NetApp、Pure Storage(AIRI)和VAST Data等供應商已經做好了戰鬥準備。Panasas也不會錯過邊緣位置的AI業務機會。相比之下,對象存儲和塊存儲廠商的想像空間似乎就相對有限。
我們認為,尚不支持GPUDIrect的供應商應該抓緊補上這塊短板。
軟體
以CXL為重點的軟體 – MemVerge和Unifabrix等供應商應該會迎來一波持續性的業務高潮。
數據分析 – 供應商需要抓緊時間引入大語言模型前端。
資料庫、數據倉庫和智能湖倉 – 供應商必須能夠支持大語言模型所需要的向量嵌入。目前,為用戶提供聊天機器人前端的需求已經非常強烈,這將使得非數據科學家和非資深SQL用戶也能運行複雜分析。這些廠商還有機會將新成果引入ETL(提取、轉換和加載)流程,將選定的數據快速輸出至大語言模型以進行訓練和推理。
數據管理工具 – 可以應用大語言模型技術分析自己的數據集,並為AI流程提供數據以擴大業務規模。
高速陣列 – 供應商可以將自己的軟體移植到運行生成式AI模型的公有雲,藉此支持以本地/公有雲混合的方式運行大語言模型的客戶。
橫向擴展並行文件系統 – IBM(Storage Scale)和WEKA等供應商在這方面處於有利地位,其現有客戶正在應用生成式AI技術,新客戶則迫切需要快速、大容量的文件訪問軟體。這部分業務空間同樣相當可觀。
間接受益方和不受影響方
雲文件服務供應商 – 這類廠商可以使用雲端存儲的數據集為大語言模型提供數據,但數據需要從底層對象庫轉移至更快的訪問存儲介質;換言之,類似於某種形式的ETL。但也不排除AWS、Azure和谷歌等雲服務商會提供類似於GPUDirect的方式,將數據從S3/Azure Blob等直接傳遞至GPU實例。
數據編排工具 – 這類廠商可以幫助客戶編排大語言模型所需要的數據,藉此獲取間接收益。
數據保護與安全 – 供應商需要關注適用於管理設施的聊天機器人界面,藉此更好地保護數據集並發現漏洞。特定領域的聊天機器人可以檢查組織的攻擊並確定相應保護措施。數據保護備份數據集則可以為大語言模型提供給定的ETL過程。
磁盤驅動器陣列 – 這類產品速度太慢,只要作為主存儲閃存之外的次級存儲形式。
生命周期管理工具 – 這類廠商需要研究聊天機器人界面如何幫助用戶提高工作效率。
安全供應商 – 聊天機器人和其他AI技術的發展成熟,將幫助這類廠商高效檢測、響應惡意軟體和處理用戶交互。
軟體定義存儲 – 這類廠商有可能被生成式AI的浪潮甩在身後,必須找到某種方法滿足高性能訪問需求才有可能分得額外業務空間。
存儲管理員 – 聊天機器人能夠提高他們的工作效率,或者由技術水平較低的員工完成原本對技能要求較高的工作。
磁帶系統 – 這類歸檔系統速度過慢,無法與大語言模型提供數據,但在市場上仍有生存空間。
Web3 – 此類存儲速度太慢,在大語言模型的世界中沒有任何發揮餘地。