宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

英偉達推出AI Workbench

2023年08月09日 首頁 » 熱門科技

英偉達推出AI Workbench

就在SIGGRAPH(年度人工智慧學術會議)召開期間,Nvidia宣布推出一個新平台,旨在讓用戶在PC或工作站上創建、測試和定製生成式人工智慧模型,然後將其擴展到數據中心和公有雲中。

「為了推動AI大眾化,我們必須讓它幾乎可以在任何地方運行,」Nvidia創始人兼首席執行官黃仁勛在大會上表示。

被稱為AI Workbench的服務可以通過在本地工作站上運行的界面訪問,開發人員可以使用它來微調和測試來自Hugging Face和GitHub等流行社區的算法模型,並在需要擴展時訪問雲計算資源。

Nvidia計算副總裁Manuvir Das表示,推出AI Workbench是為了定製AI大模型。企業級人工智慧項目可能需要在多個資料庫中尋找合適的框架和工具,當項目需要從一個基礎設施轉移到另一個基礎設施時,這個過程變得更加複雜。

當然,將企業模型投入生產的成功率很低。

來自KDnuggets的一項調研數據顯示,大多數數據科學家表示,在部署機器學習模型之前,他們的項目中有超過80%是停滯不前的。根據Gartner的另一個預測數據,接近85%的大數據項目失敗,都是因為基礎設施障礙導致的。

「全球企業正在競相尋找合適的基礎設施並構建生成式AI模型和應用程序,」Das在一份預先準備的聲明中表示。「Nvidia AI Workbench為跨組織團隊創建基於人工智慧的應用程序提供了一條簡化的路徑,這在現代商業中變得越來越重要。」 關於這條「簡化」路徑到底有多簡化,目前還沒有定論。但根據Das的觀點是,AI Workbench允許開發人員從開源資源中匯集模型、框架、SDK和庫,包括用於數據準備和數據可視化的庫,進入一個統一的工作空間。

隨著對人工智慧(尤其是生成式人工智慧)的需求增長,越來越多專注於將大型通用模型微調為特定用例的工具隨之出現。像Fixie、Reka和Together這樣的初創公司旨在使公司和個人開發人員能夠更輕鬆地根據自己的需求定製模型,而無需支付昂貴的雲計算費用。

通過AI Workbench,Nvidia提供了一種更為分散的微調方法,即在本地機器上進行,而不是在雲服務上進行。這是有道理的,因為Nvidia及其產品組合的人工智慧加速GPU將受益;Nvidia在宣布這一消息的新聞稿中並不掩飾其RTX系列產品的提及。但是,除了Nvidia的商業動機之外,這個提議可能會吸引那些不希望受制於單一雲或服務進行人工智慧模型實驗的開發人員。

由於對GPU的人工智慧驅動需求,Nvidia的收益達到了新的高度。

今年5月,該公司的市值曾一度達到1萬億美元,此前一季度的收入為71.9億美元,比上一財季增長了19%。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新