GPU製造商和AI提供商Nvidia近日宣布推出一系列新的生成式AI產品,旨在加速大型語言模型和其他先進AI應用的開發。
Nvidia此次在SIGGRAPH 2023大會上宣布與機器學習和AI工具開發公司Hugging Face建立新的合作夥伴關係,讓開發人員可以在Nvidia DGX Cloud超級計算基礎設施上部署和使用他們的生成式AI模型,以擴展工作負載。開發人員還將能夠訪問新的Nvidia AI Workbench,從而可以打包工作並在PC、工作站、雲端以及Nvidia AI Enterprise 4.0等任何地方使用它。
Hugging Face和DGX Cloud的結合將讓開發人員能夠快速訓練大型語言模型,這些模型是使用自己的業務數據定製的,用於特定行業的知識和應用,例如智能聊天機器人、搜索和摘要等用途。大型語言模型利用這樣的超級計算能力就可以在強大的基礎設施上進行培訓和微調。
Nvidia公司創始人、首席執行官黃仁勛表示:「研究人員和開發人員是生成式AI核心,這正在改變每個行業。Hugging Face和Nvidia正在將全球最大的人工智慧社區與全球領先的雲端Nvidia AI計算平台連接起來。」
Hugging Face的平台支持超過15000個組織,構成的社區共享其用戶構建、微調和部署的超過25萬個AI模型和超過5萬個數據集。
在此次合作中,Hugging Face將提供一項名為「Training Cluster as a Service」的全新服務,該服務將使用自己的平台和Nvidia DGX Cloud基礎設施為企業客戶簡化全新自定義生成式AI模型的創建和定製,只需單擊一下即可。
Nvidia DGX Cloud則由配備了8個H100或者A100 80 GB Tensor Core GPU的實例提供支持,每個節點總共有640GB GPU內存,從而提供了極高的性能,可用於訓練和微調大量AI工作負載。
Nvidia AI Workbench:開發人員的工作空間
Nvidia AI Workbench是為開發人員提供的統一工作空間,讓他們能夠在需要使用的地方快速創建、測試和自定義他們預訓練的生成式AI模型,這意味著他們可以使用他們自己的個人電腦、工作站、數據中心、公有雲或者Nvidia DGX雲端的虛擬機。
開發人員使用AI Workbench可以加載和自定義來自任何主流存儲庫(例如Hugging Face、GitHub和Nvidia NGC)的模型。
Nvidia企業計算副總裁Manuvir Das表示:「世界各地的企業都在尋找合適的基礎設施並構建生成式AI模型和應用。Nvidia AI Workbench為跨組織團隊提供了一條簡化的路徑來創建基於AI的應用,這些應用在現代商業中正變得越來越至關重要。」
相同的界面讓開發人員可以打包他們的項目並將其跨不同的實例進行移動,他們可以在自己的PC上處理項目,在有必要的情況下將其移動到雲端,而Workbench讓打包過程變得更簡單了,只需將其打包、移動並解壓到雲端即可繼續開發。
Workbench AI還為開發人員提供了一整套生成式AI工具,包括企業級模型、軟體開發套件、來自開源存儲的庫以及Nvidia AI平台,所有這一切都在統一的開發人員體驗中。
Nvidia表示,許多AI基礎設施提供商已經開始採用AI Workbench,包括戴爾、HPE、Lambda、聯想以及Supermicro。
全新Nvidia AI Enterprise 4.0將先進AI引入生產
現在,企業藉助Nvidia AI Enterprise 4.0可以獲得採用生成式AI所需的工具,並構建將其連接到大規模生產應用所需的安全性和API。
新發布的AI Enterprise版本包括了雲原生框架Nvidia NeMo,用於在完全託管的企業系統中構建、培訓和部署大型語言模型,以創建生成式AI應用。那些希望擴展和優化AI部署的企業客戶,則可以使用Triton管理服務實現自動化,該服務將自動在Kubernetes中部署多個推理伺服器,並進行大規模模型編排。
Nvidia還通過Base Command Manager Essentials軟體提供了集群管理功能,最大限度上提高不同數據中心的AI伺服器性能,還可以管理跨不同雲系統(包括多雲和混合雲)的AI模型使用情況。
Nvidia AI Enterprise 4.0發布之後,客戶可以在合作夥伴的應用市場(包括Google Cloud)中找到。