VMware(NYSE:VMW)和NVIDIA(NASDAQ:NVDA)於今日宣布擴展雙方的戰略合作夥伴關係,幫助成千上萬使用VMware雲計算基礎架構的企業做好準備,迎接AI時代的到來。
VMware Private AI Foundation with NVIDIA將使企業能夠自訂模型並運行各種生成式AI應用,如智能聊天機器人、助理、搜索和摘要等。該平台是全集成式解決方案,採用NVIDIA提供的生成式AI軟體和加速運算,基於VMware Cloud Foundation構建,並針對AI進行了優化。
VMware首席執行官Raghu Raghuram表示:「生成式AI與多雲兩者是完美的搭配。客戶的數據無處不在,遍布其數據中心、邊緣、雲計算等多處。我們將與NVIDIA一同協助企業放心地在數據附近運行生成式AI工作負載,並解決其在企業數據隱私、安全和控制方面的問題。」
NVIDIA創辦人暨首席執行官黃仁勛表示:「世界各地的企業都在競相將生成式AI集成到自身業務中。通過與VMware擴大合作,我們將能夠為金融服務、醫療、製造等領域的成千上萬客戶提供其所需的全棧式軟體和運算,使其能夠使用基於自身數據定製的應用,充分挖掘生成式AI的潛力。」
為更快實現業務效益,企業希望簡化並提高生成式AI應用的開發、測試和部署效率。根據麥肯錫的預測,生成式AI每年可為全球經濟帶來多達4.4萬億美元的增長(1)。
VMware Private AI Foundation with NVIDIA將協助企業充分利用其性能,定製大語言模型,創建供內部使用的更加安全的私有模型,將生成式AI作為一項服務提供給用戶,並更加安全地大規模運行推理工作負載。
該平台計劃提供的各種集成式AI工具,將幫助企業高效益地運行以其私有數據訓練而成的成熟模型。創建在VMware Cloud Foundation和NVIDIA AI Enterprise軟體上的平台預計能夠提供以下方面的優勢:
該平台將採用的NVIDIA NeMo是NVIDIA AI Enterprise(NVIDIA AI平台的作業系統)中包含的端到端雲原生框架,可協助企業在幾乎任何地點構建、自訂和部署生成式AI模型。NeMo集自訂框架、護欄工具包、數據整理工具和預先訓練模型於一身,使企業能夠以一種簡單、經濟且快速的方式來採用生成式AI。
為將生成式AI部署到生產中,NeMo使用TensorRT for Large Language Models(TRT-LLM),以加速並優化NVIDIA GPU上最新LLM的推理性能。通過NeMo,VMware Private AI Foundation with NVIDIA將使企業能夠導入自己的數據,並在VMware混合雲基礎架構上構建和運行自訂生成式AI模型。
在VMware Explore 2023大會上,NVIDIA與VMware將重點介紹企業內部的開發人員如何使用全新NVIDIA AI Workbench提取社交媒體模型(例如Hugging Face上提供的Llama 2),對這些模型進行遠程自訂並在VMware環境中部署生產級生成式AI。
VMware Private AI Foundation with NVIDIA將得到戴爾、慧與和聯想的支持。這三家企業將率先提供搭載NVIDIA L40S GPU、NVIDIA BlueField®-3 DPU和NVIDIA ConnectX®-7智能網卡的系統,這些系統將加速企業LLM定製和推理工作負載。
相較於NVIDIA A100 Tensor Core GPU,NVIDIA L40S GPU可將生成式AI的推理性能和訓練性能分別提高1.2倍和1.7倍。
NVIDIA BlueField-3 DPU可加速、卸載和隔離GPU或CPU上的巨大運算工作負載,其中包含虛擬化、網路、存儲、安全,以及其他雲原生AI服務。
NVIDIA ConnectX-7智能網卡可為數據中心基礎設施提供聰明且加速的網路,進而大幅加快全球最高要求的AI工作負載。
VMware Private AI Foundation with NVIDIA創建在兩家公司長達十年的合作基礎之上。雙方的聯合研發成果優化了VMware的雲基礎架構,使其能夠以媲美裸機的性能運行NVIDIA AI Enterprise。VMware Cloud Foundation所提供的資源及基礎架構管理與靈活性將進一步惠及雙方共同的客戶。
VMware計劃於2024年初推出VMware Private AI Foundation with NVIDIA。