宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

從雲到端 NVIDIA與戴爾、微軟合作加速企業就緒的生成式AI

2023年05月24日 首頁 » 熱門科技

生成式AI的浪潮席捲各行各業,企業紛紛擁抱生成式AI,但是要支撐生成式AI,企業在基礎設施層面需要進行大量投入。

為了加速企業就緒的生成式AI,在近日舉行的戴爾科技集團全球大會和微軟Build大會上,NVIDIA與戴爾、微軟合作提供了針對性的解決方案,這些方案覆蓋雲到端,讓企業能夠快速部署生成式AI。

01 用於安全、本地化部署生成式AI的Project Helix

處於安全性的考慮,企業對於生成式AI模型的部署需要實現本地化構建。基於這樣的客戶訴求,戴爾與NVIDIA推出Project Helix合作項目,其基於戴爾和NVIDIA的基礎設施與軟體打造。

從雲到端 NVIDIA與戴爾、微軟合作加速企業就緒的生成式AI

Project Helix支持從基礎設施配置、建模、訓練、微調、應用開發和部署一直到部署推理和精簡結果等整個生成式AI的生命周期。

其中Dell PowerEdge伺服器如PowerEdge XE9680和PowerEdge R760xa,與NVIDIA H100 Tensor Core GPU和NVIDIA Networking一起,並與Dell PowerScale和Dell ECS Enterprise Object Storage等具有彈性、可擴展的非結構化數據存儲搭配使用。

Project Helix包含NVIDIA AI Enterprise 軟體,為客戶提供用於整個AI生命周期的工具。NVIDIA AI Enterprise包含100多個框架、預訓練模型和開發工具,例如用於構建生成式AI聊天機器人的 NVIDIA NeMo大型語言模型框架與NeMo Guardrails軟體。

Project Helix還將安全和隱私功能內置在基礎組件中,如 Secured Component Verification。在本地保護數據可以降低固有風險,幫助企業滿足監管要求。

自2023年7月起,基於Project Helix項目的Dell Validated Designs將通過傳統渠道和APEX靈活的消費選項提供。

02 NVIDIA AI Enterprise與Azure機器學習集成,提供端到端雲平台

除了本地化部署,雲端部署也是生成式AI的重要方式,OpenAI的ChatGPT就是運行在微軟的Azure雲中。

現在,企業也可以享受到這樣的服務了。因為NVIDIA AI Enterprise軟體套件和Azure機器學習相結合,為企業加快其AI計劃從開發到生產提供了一個直接、高效的路徑。

從雲到端 NVIDIA與戴爾、微軟合作加速企業就緒的生成式AI

通過Azure機器學習上集成的NVIDIA AI Enterprise,用戶還能夠訪問最高性能的NVIDIA加速計算資源,以加快AI模型的訓練和推理。

藉助Azure機器學習,開發人員可以輕鬆地擴展應用——從測試到大規模部署,同時使用Azure機器學習的數據加密、訪問控制和合規認證可滿足安全要求並符合其組織策略要求。藉助安全、生產就緒的AI功能,NVIDIA AI Enterprise與Azure機器學習形成互補,同時還包括NVIDIA專家的幫助和支持。

NVIDIA AI Enterprise包含100多個框架、預訓練模型和開發工具,例如用於加速數據科學負載的NVIDIA RAPIDS,NVIDIA Metropolis可加速視覺AI模型開發,而NVIDIA Triton Inference Server則支持企業實現標準化的模型部署和執行。

NVIDIA AI Enterprise與Azure機器學習的集成目前為有限技術預覽版,能通過在NVIDIA社區中註冊獲得。

NVIDIA AI Enterprise還可在Azure Marketplace上使用,為全球企業提供了一個強大的全面安全和完全支持的AI開發和部署的新選項。

03 在PC設備上部署先進的AI模型

我們知道AI模型對於算力的要求非常高,普通的移動設備是無法承載的。但是微軟與NVIDIA合作,發布在Windows PC上開發AI的工具、優化和部署AI的框架,使開發人員能夠以生成式AI為核心來構建下一代Windows應用。

從雲到端 NVIDIA與戴爾、微軟合作加速企業就緒的生成式AI

AI開發通常是在Linux上運行,NVIDIA與微軟密切合作,為適用於Linux的Windows子系統(WSL)內部的整個NVIDIA AI軟體堆棧提供GPU加速和支持。開發人員現在可以使用Windows PC來滿足所有本地AI開發需求,並支持GPU加速的WSL深度學習框架。

NVIDIA RTX GPU在台式機工作站中提供高達48GB的顯存,開發人員現在可以在Windows上處理以前只能在伺服器上處理的模型。大顯存還提高了AI模型本地微調的性能和質量,使設計師能夠根據自己的風格或內容進行定製。

更為重要的是本地運行的NVIDIA AI軟體堆棧與雲端是同構的,開發人員因此可以輕鬆將模型推送到微軟Azure雲上進行大規模訓練。

微軟還發布了Microsoft Olive工具鏈,用於優化PyTorch模型並將其轉換到ONNX,使開發人員能夠自動利用RTX Tensor Core等GPU硬體加速。

開發人員可以通過Olive和ONNX優化模型,並將Tensor Core加速的模型部署到PC或雲端。微軟將繼續投資,使PyTorch及相關工具和框架與WSL無縫協作,從而提供最佳的AI模型開發體驗。

RTX Tensor Core為AI推理提供高達1400的Tensor TFLOPS(萬億次浮點運算)。過去一年,NVIDIA一直致力於提升DirectML的性能,以便充分利用RTX硬體的優勢。

NVIDIA將在532.03版驅動中發布最新的優化,與Olive優化的模型相結合,大幅提升AI性能。使用Olive優化版Stable Diffusion文本-圖像轉換器以及受歡迎的Automatic1111發行版,新驅動程序的性能提高了2倍以上。

隨著AI即將進入幾乎所有Windows應用,提供節能的推理性能變得至關重要——尤其對於筆記本電腦來說。NVIDIA即將推出新的Max-Q低功耗推理,用於RTX GPU上的純AI工作負載。它在優化Tensor Core性能的同時儘可能地降低GPU的功耗,延長電池續航時間,並使系統保持出色的散熱和降噪表現。根據負載需要,GPU可以動態地擴展,以提供最高的AI性能。

NVIDIA和微軟正在為開發人員提供一些資源,以便在Windows PC上測試主要的生成式AI模型。Hugging Face上提供了一個Olive優化版的Dolly 2.0大語言模型。此外,用於對話式AI的NVIDIA NeMo大型語言模型的PC優化版也即將在Hugging Face上線。

總之,通過微軟Windows平台和NVIDIA動態AI硬體和軟體堆棧背後的互補技術,開發人員將能夠在Windows 11上快速、輕鬆地開發並部署生成式AI。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新