宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

通用智能體需要世界模型,Google DeepMind團隊發現AGI的必經之路

2025年06月09日 首頁 » 熱門科技

新聞領域有一個不成文的規律叫做:新聞越短,事情越大。

學術界可能存在另一個規律:標題越短,貢獻越大。

比如,當前這一波AI熱潮,自注意力機制的Transformer,來源於2017年Google發布的論文Attention is All You Need,標題只有5個單詞。

前幾天,還是Google,又發了一篇標題同樣只有5個單詞的論文,General Agents Need World Models,核心是下面這張圖:

通用智能體需要世界模型,Google DeepMind團隊發現AGI的必經之路

(p-規則,g-目標,π-世界模型)

2025年6月谷歌DeepMind團隊,在第42屆國際機器學習會議(ICML)上發表General Agents Need World Models,發現通用智能體需要世界模型,正如論文標題一樣。

想像你正在玩一個複雜的角色扮演遊戲。要想在這個遊戲中表現出色,你需要做什麼?你需要理解遊戲世界的規則,哪些行動會產生什麼後果,不同的選擇會導向何種結果。你需要在腦海中構建一個關於這個虛擬世界如何運作的心理地圖。沒有這樣的理解,你就只能盲目地按按鈕,希望能碰運氣獲得好結果。

現在,研究團隊提出了一個令人深思的問題:當我們試圖創造真正通用的人工智慧時,這些智能體是否也需要像人類一樣,在腦海中構建關於世界如何運作的模型?還是說,它們可以僅僅通過無數次的試錯學習,不需要真正理解世界就能表現優異?

這個問題的答案對於人工智慧的未來發展具有深遠意義。如果我們想要創造出能夠像人類一樣靈活處理各種複雜任務的通用智能,那麼理解智能體需要什麼樣的內在思維結構就變得至關重要。

研究團隊發現:任何能夠成功處理複雜、多步驟目標導向任務的智能體,必然已經學會了構建關於環境的預測模型,換句話說,它們必須學會想像世界的運作方式。更進一步,智能體的性能越好,或者它能處理的任務越複雜,它所掌握的世界模型就必須越準確。

這個發現就像是一個基本定律:在追求AGI通用人工智慧的道路上,我們無法繞過世界建模這個關鍵步驟。這不僅改變了我們對人工智慧訓練方法的理解,也為確保人工智慧安全性和可解釋性開闢了新的途徑。

截然不同的智能之路:基於模型智能體與無模型智能體的區別

在人工智慧的發展歷程中,研究者們一直在探索兩條看似截然不同的道路。

想像一下兩個學生準備考試的方式。

第一個學生叫做理解型學生,他會花時間去真正理解課本內容的邏輯關係,掌握知識的內在規律,構建起完整的知識體系。當遇到新問題時,他能夠運用這些理解去推理和預測答案;

第二個學生叫做記憶型學生,他選擇記住大量的題目和對應答案,通過模式識別來處理新遇到的問題,而不需要真正理解背後的原理。

在人工智慧領域,這兩種方式分別對應著基於模型和無模型的學習方法。基於模型的智能體就像理解型學生,它們會努力構建關於環境如何運作的內在模型,比如"如果我在這種情況下做出這個動作,可能會發生什麼結果"。這種方法的優勢顯而易見:一旦擁有了準確的世界模型,智能體就可以在實際行動之前在腦海中模擬各種可能的行動序列,選擇最優策略,就像一個優秀的棋手能夠提前幾步預想棋局走向。

然而,構建準確的世界模型絕非易事。現實世界極其複雜,充滿了不確定性和動態變化。讓機器真正理解這個世界如何運作,往往需要大量的計算資源和精心設計的算法。正因如此,許多研究者轉向了第二條道路。

無模型的智能體就像記憶型學生,它們通過大量的試錯學習,直接學會在特定情況下採取什麼行動能獲得最好的結果,而不需要明確理解為什麼這些行動是有效的。這種方法的魅力在於它的簡潔性,智能體不需要花費精力去建立複雜的世界模型,只需要學會"在情況A下做動作X,在情況B下做動作Y"這樣的映射關係。

著名的人工智慧先驅Rodney Brooks曾經提出了一個影響深遠的觀點:"世界就是自己最好的模型"。他認為,智能行為可以完全通過智能體與環境的直接交互產生,不需要構建明確的世界表徵。這個觀點在很長一段時間內主導了人工智慧的發展方向,誕生了許多成功的無模型智能系統。

從AlphaGo到現代的大型語言模型,我們確實看到了無模型方法取得的巨大成功。這些系統能夠在各種複雜任務中表現出色,從遊戲對弈到自然語言處理,從圖像識別到機器人控制。這些成功案例似乎支持了Brooks的觀點,也許我們真的可以繞過世界建模這個複雜的步驟,直接訓練出通用的智能體。

但是,這裡出現了一個有趣的現象。近年來,越來越多的證據表明,即使是那些看起來完全基於無模型方法訓練的智能系統,在其內部表徵中也可能隱含地學習了世界模型。比如,研究者發現一些大型語言模型在處理文本時,其內部表徵似乎包含了對物理世界空間關係的理解,儘管它們從未被明確教導過這些知識。

這就引出了研究團隊要解決的核心問題:在通用人工智慧的道路上,是否真的存在一條無模型的捷徑?還是說,世界建模實際上是任何真正通用智能系統都無法迴避的必需品?如果是後者,那麼我們對於如何訓練和理解人工智慧系統的認知可能需要根本性的調整。

這個問題不僅僅是理論層面的思辨。它直接關係到我們應該如何設計人工智慧系統,如何分配研究資源,以及如何確保這些系統的安全性和可解釋性。如果世界建模確實是通用智能的必要條件,那麼我們就需要將更多注意力放在如何幫助智能體構建準確、可靠的世界模型上,而不是單純追求在特定任務上的性能提升。

實驗設計:像偵探一樣證明智能體的內心世界

要證明智能體是否真的需要世界模型,研究團隊面臨一個有趣的挑戰:如何證明一個看起來是無模型的系統實際上在內部隱藏著世界模型?這就像要證明一個聲稱只憑直覺下棋的大師實際上在腦海中進行著複雜的棋局分析。

研究團隊選擇了一個巧妙的證明策略,就像一位經驗豐富的偵探通過觀察嫌疑人的行為模式來推斷其內心想法。他們的核心思路是:如果一個智能體真的掌握了關於環境的準確世界模型,那麼我們應該能夠通過觀察它的決策行為,反推出這個隱藏的世界模型。

為了使這個證明過程儘可能嚴謹,研究團隊首先構建了一個理想化的實驗環境。想像一個完全透明的遊戲世界,其中每個狀態都能被完全觀察到,而且遊戲規則遵循馬爾可夫過程,也就是說,下一步會發生什麼只取決於當前的狀態和採取的行動,而不受更早歷史的影響。這就像一個簡化版的棋類遊戲,規則明確且確定。

接下來,他們需要定義什麼叫做有能力的智能體。這裡,研究團隊提出了一個非常直觀的標準:一個有能力的智能體應該能夠在各種目標導向的任務中表現良好。更具體地說,智能體應該能夠處理由簡單子目標組成的複雜序列任務。

比如說,想像一個清潔機器人的任務:它需要先去廚房清潔,然後去客廳清潔,最後回到充電站。這個任務可以分解為三個子目標的序列。一個真正有能力的智能體不僅應該能夠完成這個特定任務,還應該能夠靈活處理各種不同的目標序列組合——比如先去客廳再去廚房,或者添加更多房間的清潔任務。

通用智能體需要世界模型,Google DeepMind團隊發現AGI的必經之路

研究團隊用數學語言精確定義了這種能力。他們說,一個智能體如果能夠在深度為n的目標序列中保持不超過δ的失敗率(相對於最優智能體的表現),那麼這個智能體就是有界目標條件智能體。這個定義的巧妙之處在於,它既承認了現實中的智能體不可能做到完美,又設定了一個明確的能力標準。

有了這些準備工作,研究團隊開始設計他們的"逆向工程"算法。這個算法的工作原理非常巧妙。它會向智能體提出一系列精心設計的目標選擇問題,每個問題都是一個二選一的情境。

想像一下這樣的場景:智能體被要求在兩個目標之間做選擇。第一個目標是:在接下來的10次嘗試中,成功執行特定動作的次數不超過3次;第二個目標是:在接下來的10次嘗試中,成功執行特定動作的次數超過3次。一個擁有準確世界模型的智能體會根據它對成功概率的內在估計來選擇更容易實現的目標。

通過觀察智能體在一系列這樣的選擇中的決策模式,算法可以逐步推斷出智能體對於各種狀態轉移概率的內在估計。這就像通過觀察一個人在一系列賭局中的選擇來推斷他對各種事件概率的判斷。

研究團隊證明了一個令人驚訝的結果:如果一個智能體能夠在足夠複雜的目標序列任務中保持良好表現,那麼它的內在世界模型的準確性就有了數學上的保證。更準確地說,通過他們的算法提取出的世界模型與真實環境之間的誤差會隨著智能體能力的提升而減小。

這個結果的深刻含義在於:智能體的表現越好,或者它能處理的任務越複雜,它必須擁有的世界模型就越準確。這不是一個經驗性的觀察,而是一個數學定理。就像物理學中的守恆定律一樣,這個結果告訴我們,在智能和世界建模之間存在著一種根本性的聯繫。

更有趣的是,研究團隊還證明了這個結果的逆命題:對於只能處理簡單、即時目標的智能體,比如只關注下一步行動效果的近視智能體,他們的算法無法提取出任何有意義的世界模型資訊。這表明,世界建模的必要性確實與任務的複雜性和時間跨度直接相關。

這個發現為人工智慧研究提供了一個全新的視角。它告訴我們,當我們看到一個智能體在複雜任務中表現出色時,我們可以確信它的內部必然包含著對環境的某種理解,即使這種理解是隱含的、不易觀察的。這就像通過觀察一個大師級棋手的走棋風格,我們可以推斷出他必定掌握了深刻的棋理,即使他自己可能無法明確表述這些知識。

突破性發現:智能與世界建模的不可分割性

研究團隊的核心發現可以用一個簡單而深刻的類比來理解:就像一個優秀的導航員必須擁有準確的地圖一樣,任何能夠在複雜環境中靈活行動的智能體都必須擁有關於環境運作規律的內在模型。

他們的主要理論結果可以這樣描述:假設我們有一個智能體,它能夠在包含多個子目標的複雜任務序列中保持良好表現。研究團隊證明,僅僅通過觀察這個智能體的決策行為,我們就能夠提取出一個近似的環境模型,而且這個模型的準確性有著嚴格的數學保證。

通用智能體需要世界模型,Google DeepMind團隊發現AGI的必經之路

更令人驚訝的是,模型準確性與智能體能力之間存在著一種數學上的對應關係。當智能體的失敗率降低時,提取出的世界模型的誤差也會相應減小。當智能體能夠處理更長的目標序列時,所需的世界模型也必須更加精確。具體來說,如果用δ表示智能體相對於最優表現的失敗率,用n表示智能體能處理的最大目標序列長度,那麼世界模型的誤差大約按照δ/√n的規律縮放。

這個結果的深層含義是革命性的。它告訴我們,在追求通用人工智慧的道路上,不存在真正的無模型捷徑。任何聲稱不需要世界模型的智能系統,要麼其能力被嚴重限制在簡單任務範圍內,要麼實際上已經隱含地學習了世界模型,只是我們還沒有意識到而已。

為了驗證這個理論預測,研究團隊進行了一系列精心設計的實驗。他們創建了一個包含20個狀態和5個動作的受控環境,並訓練了一系列智能體。這些智能體使用基於模型的強化學習方法訓練,但關鍵是,他們的提取算法只能觀察智能體的決策行為,而無法直接訪問智能體內部的世界模型。

實驗結果令人印象深刻。隨著訓練進程的推進,智能體能夠處理的目標序列長度不斷增加,而通過行為觀察提取出的世界模型也變得越來越準確。更重要的是,即使當某些智能體在部分任務上表現很差(違反了理論假設),算法仍然能夠提取出相當準確的世界模型,只要智能體在平均意義上保持良好表現。

這個發現解決了一個重要的實際問題:現實中的智能體往往不是完美的,它們可能在某些任務上表現出色,在另一些任務上表現糟糕。研究結果表明,只要智能體的平均能力足夠強,我們仍然可以從中提取出有價值的世界模型資訊。

研究團隊還探索了一個有趣的邊界情況:那些只關注即時回報、不考慮長期後果的近視智能體。理論預測表明,這樣的智能體不需要學習有意義的世界模型,而實驗結果完美驗證了這一點。無論使用什麼樣的提取算法,都無法從純粹近視的智能體中獲得關於環境轉移概率的有用資訊。這進一步確認了世界建模與任務複雜性之間的緊密聯繫。

這些發現還揭示了智能體學習過程中的一個有趣現象:當智能體開始能夠處理更複雜的多步任務時,它們似乎會自動地學習更精確的世界模型,即使沒有明確的激勵去構建這樣的模型。這就像一個人在學習複雜技能時,會不自覺地加深對相關領域的理解,即使最初的學習目標並不包括理論掌握。

從實用角度來看,這項研究還提供了一個強大的工具:通過觀察智能體的行為,我們可以提取並審查它們的內在世界模型。這為人工智慧的安全性和可解釋性開闢了新的可能性。想像一下,我們可以通過這種方法來理解一個複雜的AI系統是如何理解世界的,它的認知中存在哪些偏見或錯誤,從而更好地預測和控制其行為。

這個發現還對人工智慧的訓練策略產生了重要影響。如果世界建模是通用智能的必然要求,那麼與其試圖避免這個複雜性,我們不如直接擁抱它,開發更好的方法來幫助智能體構建準確、可靠的世界模型。這可能會催生一系列新的研究方向,從改進的模型學習算法到更好的環境表徵方法。

深遠影響:重新思考人工智慧的發展路徑

這項研究的影響遠遠超出了理論層面的貢獻,它為人工智慧領域的多個重要方向提供了全新的視角和指導原則。

首先,這個發現徹底改變了我們對"模型無關"訓練方法的理解。長期以來,許多研究者認為可以通過純粹的試錯學習訓練出通用智能體,而無需顯式地構建世界模型。現在我們知道,這種想法在根本上是錯誤的。任何能夠處理複雜、多步驟任務的智能體都必須在內部學習某種形式的世界模型。這就像發現所有會游泳的動物都必須掌握某種形式的浮力原理,即使它們可能沒有明確意識到這一點。

這個認識為人工智慧的訓練策略指明了新方向。與其試圖繞過世界建模的複雜性,研究者們應該將注意力集中在如何更好地幫助智能體學習準確、有用的世界模型。這可能意味著開發新的學習算法,設計更好的環境表徵方法,或者創造更有效的方式來整合先驗知識。

研究結果還為理解人工智慧系統中的"湧現能力"提供了新的框架。近年來,我們經常看到大型語言模型或其他複雜AI系統突然表現出之前沒有的新能力。這項研究暗示,這些湧現能力可能與系統內在世界模型的改進有關。當一個系統學會了更準確的世界模型時,它就能夠處理更複雜的任務,表現出看起來"突然出現"的新技能。

這種理解為我們預測和引導AI系統的能力發展提供了新的工具。如果我們能夠監控和評估系統內在世界模型的質量,就可能更好地預測它們何時會獲得新能力,以及這些能力的範圍和限制。

在人工智慧安全領域,這項研究開闢了激動人心的新可能性。傳統上,理解和控制複雜AI系統的行為是一個巨大挑戰,就像試圖理解一個黑盒子的內部運作。現在,研究團隊提供的方法讓我們能夠通過觀察系統的行為來提取其內在的世界模型,這就像獲得了一個透視黑盒子內部的X光機。

想像一下這種能力的應用場景:我們可以檢查一個自動駕駛系統對交通規則的理解是否準確,審查一個醫療AI對人體生理機制的認知是否存在危險偏見,或者驗證一個金融AI對市場機制的建模是否包含了不當假設。這種能力讓我們能夠主動發現和糾正AI系統認知中的問題,而不是被動等待這些問題在現實應用中暴露出來。

此外,這項研究還為人工智慧的能力評估提供了新的標準。傳統的AI評估往往專注於在特定任務上的表現,但這種方法可能遺漏系統的根本能力和限制。現在,我們可以通過評估系統的世界建模能力來更深入地理解其真實水平。一個擁有準確世界模型的系統不僅在當前任務上表現良好,還具備了泛化到新任務的潛力。

研究結果還對AI系統的可解釋性產生了重要影響。長期以來,解釋複雜AI系統的決策過程是一個巨大挑戰。現在,通過提取和分析系統的內在世界模型,我們可能找到了一個新的解釋路徑。如果我們理解了系統是如何"看待"世界的,就能更好地解釋它為什麼會做出特定決策。

這種理解還可能推動AI倫理研究的發展。許多AI倫理問題的根源在於系統對世界的錯誤或偏見理解。比如,一個招聘AI可能因為對性別角色的刻板印象而產生歧視性決策。通過檢查這些系統的世界模型,我們可能能夠更早地發現和糾正這些倫理問題。

從更宏觀的角度來看,這項研究還為人工通用智能(AGI)的研究指明了方向。它告訴我們,追求AGI不能僅僅關注任務表現的提升,還必須重視世界建模能力的發展。一個真正的AGI系統必須擁有豐富、準確、可更新的世界模型,能夠理解物理世界、社會規則、因果關係等複雜概念。

這個認識可能會催生新的研究領域,專門研究如何為AI系統構建更好的世界模型。這可能包括開發新的知識表徵方法、設計更有效的學習算法、創造更好的多模態整合技術等。

最後,這項研究還為人類認知科學提供了新的洞察。長期以來,認知科學家一直在研究人類是如何構建和使用心理模型來理解世界的。這項AI研究的發現與許多認知科學理論高度一致,為人機智能的統一理解提供了橋樑。也許在未來,我們能夠更好地理解人類和人工智慧在世界建模方面的共同點和差異,從而為兩者的協同發展找到更好的路徑。

結語:智能的新定義

這項來自谷歌DeepMind的研究為我們揭示了一個關於智能的基本真相:真正的智能不僅僅是做出正確決策的能力,更是理解世界如何運作的能力,一個真正智能的系統必須擁有對其所處環境的深刻理解。

研究團隊用數學證明告訴我們,在通向通用人工智慧的道路上,沒有捷徑可走。任何試圖繞過世界建模的努力都註定會遇到能力的天花板。

此外,這項研究為我們提供了一個強大的工具,通過觀察智能體的行為來透視其內在的世界理解。這種能力對於確保AI安全性、提升可解釋性以及推動人機協作都具有巨大價值。

未來的AI系統開發可能會更加重視世界建模能力的培養,而不是單純追求任務性能的提升。這可能會催生新的訓練方法、評估標準和應用模式。

人類智能的獨特價值可能不在於我們能夠解決特定問題,而在於我們構建和更新世界理解的方式。人類擁有豐富的情感、價值觀、創造力和社會認知,這些都會影響我們如何理解和建模世界。即使AI系統學會了構建世界模型,人類在這個過程中仍然具有不可替代的作用。

在這個時代里,智能不再是零和遊戲,而是一個協作過程。人類的直覺、價值觀和創造力與AI系統的計算能力、數據處理優勢相結合,可能會產生前所未有的智能形式。

要實現這些願景,還需要我們解決許多技術、倫理和社會挑戰。我們需要確保AI系統的世界模型是準確、公平和可更新的,需要建立有效的監督和控制機制,也需要培養人類與AI系統協作的新技能。

如果你希望深入了解技術細節,可以查閱完整論文。

論文地址:https://www.arxiv.org/abs/2506.01622

END

本文來自至頂AI實驗室,一個專注於探索生成式AI前沿技術及其應用的實驗室。致力於推動生成式AI在各個領域的創新與突破,挖掘其潛在的應用場景,為企業和個人提供切實可行的解決方案。

Q&A:

Q1:谷歌 DeepMind 團隊關於智能體構建世界模型的研究有什麼重要發現?

A:研究發現任何能成功處理複雜、多步驟目標導向任務的智能體,必然已學會構建關於環境的預測模型,即必須學會想像世界的運作方式,且智能體性能越好或能處理的任務越複雜,所掌握的世界模型就越準確,這就像發現了智能的一個基本定律,表明在追求通用人工智慧的道路上無法繞過世界建模這個關鍵步驟。

Q2:谷歌 DeepMind 研究團隊是如何證明智能體內心存在世界模型的?

A:研究團隊構建了一個理想化的實驗環境,定義了有能力的智能體的標準,然後設計逆向工程算法,向智能體提出一系列精心設計的目標選擇問題,通過觀察智能體在一系列選擇中的決策模式,逐步推斷出智能體對於各種狀態轉移概率的內在估計,從而證明了有能力的智能體必然存在準確的世界模型。

Q3:谷歌 DeepMind 的關於智能體世界建模的研究對人工智慧發展有何影響?

A:該研究為人工智慧領域多個重要方向提供了新視角和指導原則,改變了對模型無關訓練方法的理解,指明了新訓練策略方向,為理解湧現能力提供新框架,開闢了人工智慧安全領域的新可能性,提供了新的能力評估標準,對 AI 系統的可解釋性、倫理研究以及人工通用智能的研究等都產生了重要影響,還為人類認知科學提供了新的洞察。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新