微軟(Microsoft)需要更多計算資源來滿足爆炸性增長的AI服務,而甲骨文(Oracle)恰巧有數以萬計的NVIDIA A100和H100 GPU可供租用,促成雙方合作。
甲骨文7日宣布與微軟完成多年協議,微軟使用Oracle Cloud Infrastructure(OCI)AI基礎設施以及Microsoft Azure AI基礎結構來推理AI模型。通過適用於Microsoft Azure的Oracle Interconnect,微軟能夠使用Azure Kubernetes Service(AKS)等服務大規模編排OCI運算,以滿足Bing對話式搜索不斷增長的需求
「我們與甲骨文合作,Oracle Cloud Infrastructure和Microsoft Azure AI基礎結構的使用,將擴大客戶訪問範圍並提升搜索速度」,微軟搜索和人工智慧全球營銷負責人Divya Kumar通過聲明表示。
在導入OpenAI的AI技術後,你可對Bing Chat輸入文本提示、問題以及查詢,它會嘗試產發文本內容、尋找資訊,甚至產生各種風格的圖片。Bing Chat背後支持的大型語言模型不僅需要大量GPU集群進行訓練,還需要大規模推理,而甲骨文的GPU集群有助於完成這些推理工作。
Oracle宣稱OCI Supercluster可擴展至4,096個OCI運算裸機執行實例,配備32,768個A100 GPU或16,384個H100 GPU,以及PB級高性能集群文件系統存儲,以高效處理大規模的應用程序。
值得一提的是,根據網站流量分析工具StatCounter數據顯示,2023年10月,Bing在所有平台的全球搜索市場占有率為3.1%,遠遠不及Google市場占有率91.6%。進一步來看,電腦上的Bing搜索市場占有率來到9%,平板電腦則有4.6%。
從流量數據似乎看不出Bing不斷增長的需求,但微軟AI需求顯然越來越大,甚至於軟體巨頭要將Bing搜尋引擎所用的一些機器學習模型轉移到甲骨文的GPU集群上。
(首圖來源:Oracle News APAC)