宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

2025年09月19日 首頁 » 熱門科技

2025年8月,阿里通義有個Github開源多模態深度研究項目叫WebAgent,官方項目圖里有5個小豹子,剛好組成一個籃球隊。

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

2025年9月17日,WebAgent項目改名為Tongyi DeepResearch又連發6篇論文,項目圖里因此增加了6個更酷的小豹子。至今阿里Deep Research的智能體家族總共11個小豹子,剛好可以從之前的籃球隊改行湊成一支足球隊。

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

通常Github開源AI項目中,一個項目對應一篇論文,阿里的這個Tongyi DeepResearch項目竟然足足發了11篇論文,可以看出阿里對這個深度研究項目的投入和重視遠超其他AI項目。

這11篇論文名稱是,1-5是之前發的,6-11是9月17日同時發布的,一起看看9月17日發的6篇分別講了什麼重點。:

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

No.6 WebResearcher

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch
阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

WebResearcher框架,通過IterResearch疊代研究範式解決了傳統AI研究代理"資訊積累導致推理能力下降"的核心問題。該系統像人類研究者一樣定期整理發現、重建工作空間,在多個權威基準測試中顯著超越現有方案。

No.7 WebResummer

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch
阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

阿里團隊針對大語言模型智能代理在複雜網路搜索中的語境窗口限制問題,提出了ReSum無限探索範式。該方案通過定期摘要壓縮對話歷史、專門訓練的摘要工具ReSumTool-30B和強化學習算法ReSum-GRPO,實現了4.5%-8.2%的性能提升,讓AI能夠處理需要大量多輪搜索驗證的複雜查詢任務。

No.8 WebWeaver

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch
阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

WebWeaver框架,讓AI智能體能夠像人類研究員一樣進行深度調研。通過規劃師和寫作者的雙智能體配合,實現了動態研究計劃調整和分段式報告撰寫,在多個基準測試中取得最佳成績。

No.9 WebSailor-V2

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch
阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

研究展示了如何通過創新的合成數據構建和雙環境強化學習方法,讓30B參數的開源智能體在網路研究任務上達到甚至超越大型閉源系統的性能。WebSailor-V2在多個基準測試中創造了開源智能體的新紀錄。

No.10 AgentFounder

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch
阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

阿里團隊提出智能體持續預訓練新方法,開發出AgentFounder-30B模型,通過在預訓練和後訓練間插入專門階段解決傳統智能體訓練的優化衝突問題。該模型在十個基準測試中取得領先成績,其中在HLE上達到31.5%成為首個突破30分的開源模型。

No.11 AgentScaler

阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch
阿里10個團隊耗時8個月,重磅開源深度研究智能體Tongyi DeepResearch

團隊通過創新的環境擴展方法,成功訓練出AgentScaler系列AI智能體模型。該研究首次實現了小參數模型在工具使用任務上媲美大型模型的突破,其中30B參數的模型甚至能與萬億參數模型競爭。研究採用兩階段訓練策略,先進行通用技能培養,再進行專業領域訓練。

至頂AI實驗室洞見

總的來說,Tongyi DeepResearch6個最新的研究分別解決「研究能力、記憶管理、知識整合、訓練數據、推理效率與環境擴展」六大關鍵問題:1.AgentFounder 作為「研究大腦」,通過持續預訓練為模型注入智能體直覺,奠定多步推理與工具調用基礎;2.AgentScaler扮演「技能教練」,利用千級虛擬環境的兩階段訓練,讓小參數模型也能精通成千上萬種工具;3.WebResearcher 是「疊代研究引擎」,以 Think–Report–Action 循環替代線性堆料,保證長程推理始終處於「清潔工作檯」;4.ReSum 充當「記憶壓縮器」,在超長搜索對話中定時生成關鍵線索摘要,實現語境窗口的「無限續航」;5.WebWeaver 是「雙角色課題組」,規劃師動態調整研究路線,寫作者分段產出報告,形成類人深度調研閉環;6.WebSailor-V2 作為「數據與訓練工廠」,通過 SailorFog-QA-V2 合成數據與雙環境強化學習,為整個系統提供高質量、可擴展的訓練燃料,並驗證小模型也可比肩閉源大模型。

六大模塊環環相扣:AgentScaler 與 WebSailor-V2 負責「練本領」,AgentFounder 提供「通用腦」,WebResearcher 與 WebWeaver 負責「做研究」,ReSum 保障「記得住」,共同支撐起DeepResearch 在開源領域媲美商業閉源系統的深度研究能力。

再看看每一篇的論文作者,會發現有一個名字重複出現:Jingren Zhou,也就是阿里副總裁、通義實驗室負責人周靖人,也是最頂尖開源模型Qwen背後那個低調的男人。

從現在的時間點回想,也許在7月左右的一個普通上午,杭州某會議室里周靖人一聲令下,6個團隊的負責人帶領著各自的團隊投入研發,相約在9月帶著各自的成果匯合。6個團隊浴血奮戰兩個月,9月17日,Tongyi DeepResearch重磅發布!

(註:前邊「7月左右」這個時間節點是本文作者推斷出來的,因為WebSailor和WebSailor V2一作是同一個人,很可能是在7月第一個項目發布後立刻投入V2的工作。)

Tongyi DeepResearch項目從25年1月的WebWalker開始,凝聚近10個團隊8個月的心血,將一套完整的Agent系統開源給全球的開發者、企業,對全球深度研究Agent領域的發展影響深遠。

項目地址:https://github.com/Alibaba-NLP/DeepResearch

模型地址:https://modelscope.cn/models/iic/Tongyi-DeepResearch-30B-A3B

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新