隨著「大語言模型」技術不斷深化到應用層,在全球多地形成了開發定製化生成式人工智慧的熱潮。
無論是從國家層面:法國將人工智慧技術與國家的工業和數字主權掛鉤;印度下定了「必須要有自己的主權人工智慧」的決心;日本以舉國之力押注主權AI......
還是從行業層面:金融行業利用AI提升交易算法的速度與精度,優化風險管理;醫療行業,利用AI精準診斷和個性化治療,提高患者護理的質量;製造業,通過AI賦能的生產流程,降低成本,提升效率;零售業,基於AI進行客戶行為分析,增強個性化推薦和服務,提升顧客滿意度......
越來越多組織甚至國家期待依賴定製化的AI解決方案來提高其核心能力的智能化水平。這種轉變不僅加速了AI技術的實際應用,還將推動全球AI技術的發展和創新,尤其是在有效整合人工智慧以解決特定行業問題方面。
試想,如果有這樣一個模型,它不僅支持最尖端的工具、資源以及強大基礎設施,還能讓你根據自有數據自行設計和定製,那將會是怎樣的情景?
NVIDIA「AI 代工廠」 幫助用戶定製「超級模型」
如今,業界期待已久的「超級模型」已經變為現實。NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務和 NVIDIA NIM™ 推理微服務,與同樣剛推出的 Llama 3.1 系列開源模型一起,為全球企業的生成式 AI 提供強力支持。
老黃(NVIDIA 創始人兼首席執行官黃仁勛)強調說:「NVIDIA AI Foundry 已經在整個過程中集成了 Llama 3.1,並能夠幫助企業構建和部署自定義 Llama 超級模型。藉助 NVIDIA AI Foundry,可以使用自有數據以及由 Llama 3.1 405B 和 NVIDIA Nemotron™ Reward 模型生成的合成數據,來訓練這些「超級模型」。
具體而言,基於 NVIDIA DGX™ Cloud AI平台驅動的NVIDIA AI Foundry,由 NVIDIA與全球領先的公有雲提供商共同設計,專門為滿足企業不斷變化的AI計算需求而打造。
NVIDIA AI Foundry提供的計算資源不僅可以根據需求靈活擴展,為企業帶來前所未有的便利,還可使用企業數據以及合成生成的數據來增強和更改預訓練基礎模型中包含的一般知識。
一旦模型經過定製、評估並具有護欄,就會輸出NVIDIA NIM 推理微服務(推理微服務,包括定製模型、優化引擎和標準 API,支持不同環境的部署),開發人員只需幾行代碼便可使用NIM 的標準API來構建由人工智慧驅動的生成應用程序,同時還能利用NIM 容器無縫集成 Kubernetes(K8s)生態系統,高效地協調和管理容器化人工智慧應用。而從部署中的應用程序中獲得的知識可以反饋到 AI Foundry中,以進一步改進自定義模型。
而Llama 3.1 多語種大語言模型(LLM)集合則是一個具有 8B、70B 和 405B 三種參數規模的生成式 AI 模型集合。該集合中的模型在超過 16,000 個NVIDIA Tensor Core GPU上訓練而成,並針對 NVIDIA 加速計算和軟體(無論是在數據中心、雲以及配備 NVIDIA RTX™ GPU 的本地工作站或配備 GeForce RTX GPU 的 PC 上)進行了優化。
值得注意的是,NIM 微服務也是將 Llama 3.1 模型部署到生產中的最快途徑。Meta 創始人兼首席執行官馬克·祖克柏表示:「全新的 Llama 3.1 模型是開源 AI邁出極其重要的一步。藉助 NVIDIA AI Foundry,企業可以輕鬆創建和定製大家想要的最先進的 AI 服務,並通過 NVIDIA NIM 進行部署。」
測試數據顯示,直接部署Llama 3.1 模型的吞吐量,最多可比不使用 NIM 運行推理時高出 2.5 倍。
為應對企業組織需要更多訓練數據創建特定領域模型的需求,NVIDIA 和 Meta 支持可以在創建自定義的同時使用 Llama 3.1 405B 和 Nemotron-4 340B 生成合成數據,以提高模型的準確性。對於擁有自己的訓練數據的用戶可以使用 NVIDIA NeMo 對 Llama 3.1 模型進行自定義,通過領域自適應預訓練(DAPT)進一步提高模型的準確性。
面向AI PC及AI基礎設施輕量化的藍海,NVIDIA 和 Meta為幫助企業能夠在AI 工作站、筆記本電腦等加速基礎設施上運行由 Llama 驅動的 AI 應用,更是提供了提煉方法,供開發者為生成式 AI 應用創建更小的自定義 Llama 3.1 模型。
「NVIDIA Llama」 強化行業「AI 實力」
現在,醫療、能源、金融服務、零售、交通、電信等行業的企業已在使用適用於 Llama 的 NVIDIA NIM 微服務。同時,數百家提供企業、數據和基礎設施平台的 NVIDIA NIM 合作夥伴現在能夠將這些新的微服務集成到其 AI 解決方案中,從而為 NVIDIA 社區 500 多萬開發者和 1.9 萬家初創公司的生成式 AI 提供超強助力。
全球專業服務巨頭埃森哲更是先行一步,率先藉助 NVIDIA AI Foundry 引入了一股創新的新風潮!不僅為自己定製了 Llama 3.1 模型,還利用自家的 Accenture AI Refinery™ 框架,為那些渴望反映其獨特文化、語言和行業需求的客戶提供了同樣的服務。
埃森哲的董事長兼CEO Julie Sweet 分享說:「全球領軍企業看到了生成式 AI 正在如何深入改變各行各業,並且希望部署由自定義模型驅動的應用。埃森哲的內部 AI 應用一直在使用 NVIDIA NIM 推理微服務。現在,藉助 NVIDIA AI Foundry,我們能夠幫助客戶快速創建和部署自定義 Llama 3.1 模型,為他們的優先業務事項提供變革性的 AI 應用。」
對於行業企業而言,NVIDIA AI Foundry 提供的不僅僅是一種服務,而是一條快速打造定製超級模型的捷徑。這個全方位服務結合了 NVIDIA 的尖端軟體、健壯的基礎設施和深厚的專業知識,並且融合了 NVIDIA AI 生態系統中的豐富資源與開放社區的模型和技術。
通過 NVIDIA AI Foundry,企業可以輕鬆使用 Llama 3.1 模型和 NVIDIA NeMo 平台(包括在 Hugging Face RewardBench 排名首位的 NVIDIA Nemotron-4 340B Reward 模型)來塑造自己的定製解決方案。
定製模型就位後,企業便能夠構建基於 NVIDIA NIM 推理微服務的應用,這些服務可以在他們選擇的雲平台上運行,支持全球伺服器製造商提供的 NVIDIA 認證系統™,並與頂級的機器學習運維(MLOps)和人工智慧運維(AIOps)平台無縫對接。
NVIDIA也承諾,NVIDIA AI Enterprise 的專家團隊與全球的系統集成商合作夥伴一起,幫助 AI Foundry 的客戶加速從開發到部署的整個過程,使得企業可以更快速地實現 AI 驅動的業務變革。
寫在最後
不難看出,NVIDIA AI Foundry 代表企業AI服務向「即服務」模式轉變的趨勢。通過此平台,企業能快速定製和部署AI解決方案,滿足特定業務需求。此外,與全球系統集成商的合作也加速了從開發到部署的過程,幫助企業實現AI驅動的業務變革。
同時,對於 Llama 3.1 模型而言,這款開源模型在NVIDIA的支持下,正邁出通向開源通用人工智慧的下一步!」目前,Meta已經在研發Llama 4,相信在NVIDIA的支持下,「開源的勝利」未來可期!
現在,Llama 3.1 NIM 和 NeMo Retriever NIM 微服務的生產支持可以通過 NVIDIA AI Enterprise 獲得。NVIDIA 開發者計劃也聲稱,將很快為會員提供免費訪問 NIM 微服務,並支持在他們首選的基礎設施上進行研究、開發和測試。