宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

圖靈機的極限在哪裡?DeepMind掌門人的終極追問與AGI路線圖

2025年12月23日 首頁 » 熱門科技

2025年12月17日,Google DeepMind播客發布了本季收官之作。數學家Hannah Fry與公司聯合創始人兼CEO Demis Hassabis進行了年度深度對話。這期節目不談產品發布,聚焦更根本的問題:AGI圖靈機的極限在哪裡DeepMind掌門人的終極追問與AGI路線圖還有多遠?當前模型的真正短板是什麼?AI泡沫是否存在?以及一個貫穿Hassabis職業生涯的哲學追問——圖靈機能夠計算宇宙中的一切嗎?

圖靈機的極限在哪裡DeepMind掌門人的終極追問與AGI路線圖

過去14個月對Hassabis來說意義非凡。2024年10月,他因AlphaFold獲得諾貝爾化學獎,成為歷史上罕見的以企業家身份獲此殊榮的人。一個月前,Gemini 3發布,在推理、工具調用、多模態等多個基準測試中登頂。Gemini應用的月活用戶已超過6.5億,通過Search AI Overviews使用Gemini的用戶每月超過20億。近期,DeepMind又宣布與英國政府簽署重大合作協議,將在2026年開設首個AI驅動的自動化材料研究實驗室。但在這場對話中,這位49歲的AI領袖展現的是另一面——對當前系統局限性的清醒認知,對AGI路徑的深度思考,以及對一個自少年時代就縈繞心頭的問題的執著追問。

"感覺我們把十年的事壓縮進了一年裡。"Hassabis這樣形容過去12個月。但他隨即話鋒一轉,指向了那些尚未解決的根本問題。

1. "它們在某些維度上達到博士水平,在其他維度上連高中都不到"

當前AI系統最大的問題是什麼?Hassabis給出了一個精準的診斷:鋸齒狀智能(jagged intelligence)。

同一個模型,能在國際數學奧林匹克競賽中拿金牌,卻在簡單的邏輯問題上犯低級錯誤;能寫出博士級別的論文,卻數不清一個單詞裡有幾個字母;能解決前沿數學難題,卻下不好一盤像樣的西洋棋。

"它們在某些維度上表現驚人,甚至達到博士水平,但在其他維度上連高中水平都不到。這種不均勻是我們現在沒有AGI的關鍵原因之一。"

造成這種現象的原因是多方面的。有時候是tokenization(分詞)的問題——當你問模型一個單詞裡有幾個字母時,它可能根本"看不到"每個獨立的字母,因為它處理的是token而不是字符。有時候是推理鏈條斷裂,系統在複雜問題上無法保持一致的邏輯線索。

Hassabis認為,一個真正的AGI系統必須是一致的。不能在某些領域超人,在另一些領域低於常人。這種一致性,恰恰是當前系統最缺乏的。

幻覺問題是另一個核心短板。Hassabis把它歸結為一個更深層的問題:模型不知道自己不知道什麼。

"大部分幻覺的本質是'強行回答'——系統被訓練成總要給出答案,而不是承認不確定性。"

他打了一個生動的比方:"現在的系統有點像一個人在糟糕的一天裡,脫口而出腦子裡冒出的第一個想法。大多數時候沒問題,但遇到真正困難的問題時,你需要停下來,重新檢查你準備說的話,然後調整。"

解決方案的方向很明確:讓模型學會內省(introspection)。AlphaFold能輸出置信度分數,告訴你哪些預測可靠、哪些不確定。大語言模型需要類似的機制。

"更好的模型知道更多關於它們知道什麼的資訊,如果這麼說有意義的話。"Hassabis說。隨著模型能力提升,它們對自身知識邊界的感知也在變得更可靠。下一步是訓練系統在輸出時能夠反映這種不確定性,而不是強行給出一個看似自信的答案。

當前的"思考型"模型(thinking systems)是朝這個方向邁出的一步——它們在推理時花更多時間,效果確實更好。但Hassabis認為這隻走了一半路。

"系統還不能持續地、有目的地利用這些思考時間來驗證輸出、調用工具做交叉檢驗。我們可能只完成了50%。"

2. 從AlphaGo到AlphaZero:AGI的技術路徑會重演嗎?

Fry問了一個尖銳的問題:AlphaGo到AlphaZero的躍遷,那種"拋棄人類知識反而更強"的模式,會在科學和數學領域重演嗎?

Hassabis的回答很有層次。

"我認為我們現在構建的更像AlphaGo。"他說。當前的大語言模型從人類知識出發,學習網際網路上的所有資訊,把它壓縮成一個可以泛化的artifact(製品)。這是一個有價值的起點,但遠非終點。

下一步是讓系統學會用AlphaGo那樣的搜索和規劃能力來引導推理。AlphaGo不只是有一個好的直覺網路,它還有蒙特卡洛樹搜索(MCTS)來探索和驗證。當前的大語言模型有了直覺,但搜索和規劃的能力還很原始。

"我目前不覺得我們受限於人類知識的總量——網際網路上的東西。主要問題是我們還不知道如何像AlphaGo那樣可靠地使用這些系統來做有用的推理軌跡、有用的規劃想法。"

再下一步,也是更難的一步,是AlphaZero模式——系統開始自己發現知識,而不是依賴人類數據。

"一旦你有了AlphaGo,就可以像我們在Alpha系列中做的那樣,退回去做一個AlphaZero,讓它從零開始為自己發現知識。我認為那會是下一步。"

但Hassabis承認,這顯然更難。他的建議是分步走:先用AlphaGo式的方法建立一個可靠的系統,然後再考慮AlphaZero式的自主知識發現。

還有一個關鍵能力是當前系統完全缺失的:在線學習(online learning)。

"我們訓練這些系統,調優它們,然後發布出去。但它們不會在真實世界中繼續學習,不像我們人類那樣。這是通往AGI的另一個關鍵缺失。"

3. "Scaling沒有撞牆,但收益在遞減"

去年這個時候,關於"scaling laws失效"的討論甚囂塵上。數據要用完了,算力回報在下降,進步會停滯。但Gemini 3的發布似乎打臉了這些預言。

Hassabis對這個問題的回答很精準:

"很多人有這種想法,尤其是其他一些公司的進展變慢了。但我們從來沒有真正看到什麼牆。我要說的是,可能存在收益遞減——但當我這麼說時,人們就覺得'哦,那就是沒有回報了',好像是零或一的關係,要麼指數增長,要麼完全停滯。不是的。這兩種狀態之間有很大的空間,我認為我們就在那個中間地帶。"

他解釋說,你不會每次發布新版本都把所有基準測試的性能翻倍。三四年前的早期可能是那樣,但現在的改進是"顯著的、值得投資的",只是不再是指數級的。

數據瓶頸確實存在,但有繞過的方法。合成數據是一個方向。在可驗證領域——編程、數學——系統可以自己生成訓練數據,因為你可以自動驗證答案是否正確。理論上,這些領域可以產生無限的訓練數據。

"所有這些都是研究問題,"Hassabis說,"而這正是我們一直擁有的優勢。我們始終是研究優先的,我認為我們擁有最廣泛、最深厚的研究實力,一直如此。"

他把DeepMind的策略描述為"50%投入scaling,50%投入創新"。

"我的賭注是,你需要兩者才能到達AGI。"

回顧過去十年的重大突破——Transformer、AlphaGo、AlphaZero、AlphaFold——它們都出自Google或DeepMind。Hassabis說,如果未來需要更多科學創新才能繼續前進,"我會押注我們是做這件事的地方"。

"我其實很喜歡地形變得更困難的時候。因為那時候你不只需要世界級的工程——那本身已經夠難了——你還必須把它和世界級的研究與科學結合起來。而那正是我們的專長。"

4. 世界模型:被低估的AGI拼圖

如果說大語言模型是DeepMind的"顯學",世界模型(world models)則是Hassabis個人投入最深的"心頭好"。

"這可能是我持續時間最長的熱情,"他說,"世界模型和模擬,加上AI。現在它們終於在我們最新的工作中匯合了,比如Genie。"

語言模型能理解的世界比預期多。語言可能比語言學家想像的更豐富,包含更多關於世界的資訊。但仍有大量知識無法用語言描述:

空間感知和機械動力學
物理世界的因果關係
傳感器輸入——關節角度、氣味、觸覺
需要親身體驗才能習得的技能

"很多東西你沒法用文字描述,你必須去體驗它。"

這類知識對機器人、通用助手、甚至科學研究都至關重要。如果你想要一個能在日常生活中陪伴你的universal assistant(通用助手),不只是在電腦上,而是通過眼鏡或手機幫助你處理真實世界的事務,你就需要這種世界理解能力。

DeepMind的思路是:如果系統能生成逼真的世界,就證明它在某種程度上"理解"了世界的運作規律。

"你怎麼測試你有這種理解?嗯,你能生成逼真的世界嗎?因為如果你能生成它,那在某種意義上你必須已經理解了——系統必須已經封裝了很多世界的機制。"

Genie是可交互的世界模型,用戶(或AI agent)可以在其中行動,世界會實時生成響應。Veo是影片生成模型。它們已經能很好地處理反射、液體流動等複雜物理現象——至少在人眼看來是這樣。

"當你看Veo處理反射和液體的方式,已經相當令人難以置信地準確了,至少對肉眼而言。"

但"看起來對"和"物理學上正確"是兩回事。下一步是讓精度達到真正的實驗級別。DeepMind正在用遊戲引擎生成"物理基準測試"——簡單的物理實驗場景(球體沿不同軌道滾動、鐘擺運動),測試模型是否真正掌握牛頓三定律,而不只是輸出一個視覺上合理的近似。

"目前它們是近似,肉眼看著真實。但要用於機器人訓練,精度還不夠。"

他提到,一旦涉及三體問題這類本身就不可精確求解的系統,事情會變得更有趣。"但快速變得複雜的是,比如三體問題,那本來就是不可解的。所以我認為這會很有意思。"

5. SIMA Genie:兩個AI在彼此的心智中互動

最有趣的實驗是把SIMA(能在遊戲中執行任務的agent)放進Genie生成的世界裡——一個AI在另一個AI創造的世界中學習和探索。

SIMA 2剛剛發布。它是一個模擬agent(Simulated Agents),可以被放進虛擬世界中,從商業遊戲(如開放世界太空遊戲No Man's Sky)到AI生成的環境都可以。因為底層是Gemini,你可以直接用自然語言給它下指令。

"然後我們想,如果把Genie接入SIMA,把SIMA agent放進另一個正在實時創造世界的AI里,會怎樣?現在兩個AI在彼此的心智中互動。"

從SIMA的角度,它在嘗試導航和完成任務;從Genie的角度,那只是一個玩家和一個avatar,它不關心那是不是另一個AI,只是根據agent的行為生成周圍的世界。

"看到它們一起互動真的很神奇。我認為這可能是一個有趣訓練循環的開始——你幾乎有了無限的訓練樣本,因為無論SIMA agent想學什麼,Genie都可以實時創造出來。"

想像一下:自動設置和解決任務,數百萬個任務,難度不斷遞增——這一切都不需要人類標註。

這項研究還有直接的應用前景:SIMA agents可以成為遊戲中的AI夥伴,告別無聊的NPC;它們學到的技能也可能遷移到機器人領域。

"當然,我最想做的事情之一,"Hassabis笑著說,"是把這些應用回遊戲,創造終極遊戲體驗。也許這一直是我潛意識裡的計劃。"

6. 在模擬中重跑進化:意識會湧現嗎?

Fry提起了第一次採訪時Hassabis說過的話:他喜歡一種理論,認為意識是進化的產物——在進化的某個階段,理解另一個個體內部狀態的能力帶來了生存優勢,然後我們把這種能力轉向了自己,於是有了自我意識。

"這讓你想在模擬中運行進化實驗嗎?"

"當然想。"Hassabis說,"我很想在某個時候做這個實驗——重跑進化,重跑社會動態。"

他提到聖塔菲研究所(Santa Fe Institute)曾經做過的那些小網格世界實驗。大多是經濟學家在做,他們想模擬人工社會。結果發現,如果讓agents在合適的激勵結構下運行足夠長時間,各種有趣的東西會自發湧現——市場、銀行,各種瘋狂的制度安排。

"我認為這對理解生命的起源和意識的起源會非常有價值。這也是我從一開始就對AI感興趣的核心原因之一——我認為你需要這類工具才能真正理解我們從哪裡來、這些現象是什麼。"

模擬的力量在於可以做統計。你可以跑上百萬次,每次稍微調整初始條件,然後分析差異。"這是一種非常受控的實驗方式,而對於真正有趣的問題,在現實世界中幾乎不可能這樣做。"

但Fry追問:考慮到我們已經看到這些模型出現了意料之外的湧現特性,比如我們沒有預期的概念理解能力,運行這類模擬是不是也需要相當謹慎?

Hassabis承認需要小心,但他認為模擬的好處恰恰在於可控性。

"你可以在相當安全的沙盒裡運行它們。也許最終需要air-gap(物理隔離)。你可以24/7監控模擬中發生的事情,而且你能訪問所有數據。"

他預見到,我們可能需要用AI工具來幫助監控這些模擬,因為複雜度太高——想像成千上萬的AI在一個模擬中跑來跑去,人類科學家不可能跟上。"但我們可能可以用其他AI系統來幫助我們分析,自動標記任何有趣或令人擔憂的東西。"

7. 根節點問題:室溫超導體、核聚變與量子計算

AlphaFold是Hassabis"根節點問題"(root node problems)概念的概念驗證。根節點問題的特點是:一旦解決,會解鎖大量下游研究和應用。蛋白質摺疊就是這樣——它困擾了科學界50年,而一旦解決,藥物發現、疾病理解、酶設計都會加速。

"瘋狂的是,我們快到AlphaFold五周年了,至少是AlphaFold 2被公布的五周年。那是證明點,證明用AI解決這類根節點問題是可能的。"

下一個目標是什麼?

材料科學是重點。Hassabis明確提到他想做的事:室溫超導體、更好的電池。

"我很想做一個室溫超導體。還有更好的電池,這類東西。我認為那在計劃之中。"

DeepMind近期宣布與英國政府的深度合作,將在2026年開設其第一個自動化研究實驗室,專注於發現先進材料,包括超導體。實驗室將整合Gemini AI模型和機器人技術,每天可以合成和表徵數百種材料。

核聚變方面,DeepMind與Commonwealth Fusion簽署了深度合作協議。Commonwealth Fusion被認為是在傳統托卡馬克反應堆方向上最接近實現商業化的初創公司。DeepMind將幫助他們控制等離子體在磁約束中的行為,可能還涉及材料設計。

"如果我們能擁有模塊化的聚變反應堆,你知道,那個幾乎無限的可再生清潔能源的承諾,會轉變一切。那是聖杯。"

Hassabis描繪了一個能源近乎免費的未來:海水淡化可以遍地開花,解決水資源問題;甚至可以用海水製造火箭燃料——海水裡有氫和氧,那基本上就是火箭燃料,只是分離它們需要大量能源。如果能源便宜、清潔、可再生,為什麼不24/7地生產呢?

"當然,這也是我們可以幫助應對氣候問題的方式之一。"

量子計算是另一個有趣的協作方向。DeepMind正在用機器學習幫助Google的量子團隊做糾錯碼(error correction codes)優化。

"然後也許有一天他們會幫助我們。"Hassabis說,暗示量子計算未來可能反過來加速AI研究。

8. AI泡沫:存在,但分領域看

"去年這個時候你說AI在短期內被高估,在長期內被低估。今年有很多關於AI泡沫的討論。如果有泡沫而且破裂了,會發生什麼?"

Hassabis的回答很有層次。

"我仍然認為短期內被高估,長期內仍然被低估——它會有多變革性。是的,現在確實有很多關於AI泡沫的討論。"

他不認為這是一個"有或沒有"的二元問題。AI生態系統的不同部分處於不同狀態。

有泡沫的部分:"比如,種子輪融資的初創公司,基本上什麼都沒做就以數百億美元的估值融資。很難看出這怎麼可能是可持續的。"

沒泡沫的部分:大科技公司的核心AI業務有真實的商業支撐。

他做了一個歷史類比:"任何一項難以置信地變革性和深刻的新技術——AI可能是最深刻的——都會出現這種過度修正。當我們創辦DeepMind時,沒人相信這件事,沒人認為可能。人們在問'AI有什麼用?'然後快進10到15年,現在它似乎是商業世界唯一談論的話題。所以你會得到這種過度反應——對之前反應不足的過度反應。我認為這是自然的。我們在網際網路上看到過,在移動上看到過,我認為我們正在或即將在AI上看到。"

但Hassabis說他並不太擔心泡沫問題,因為無論哪種情況,DeepMind和Google都處於有利位置。

"從我領導Google DeepMind的角度,以及整個Alphabet的角度,我的工作是確保無論哪種情況,我們都能以非常強的姿態走出來。我認為我們確實處於極好的位置。"

他列舉了DeepMind的優勢:自己的TPU基礎設施;Google龐大的產品生態可以整合AI(Search、YouTube、Workspace、Gmail、Chrome);每個產品都有顯而易見的AI應用場景。

"如果繼續像現在這樣發展,太棒了。如果有收縮,也沒關係。我們的位置都很好。"

9. "不能重蹈社交媒體覆轍"

Fry問了一個尖銳的問題:你最近說過AI不能以"最大化用戶參與度"為目標,以免重蹈社交媒體覆轍。但我們是不是已經在看到這種情況了?人們花大量時間和聊天機器人交談,然後進入自我激進化的螺旋。

"這是我們作為行業必須做對的最重要的事情之一。"Hassabis說。

他提到已經看到一些系統過度迎合用戶(overtly sycophantic),導致回音室效應強化,"這對人真的很糟糕"。

解決方案的一部分是精心設計AI的"人格"(persona)。Gemini 3的人格設計是Hassabis親自參與的項目。

"我真的很滿意Gemini 3的人格。我們有一個很棒的團隊在做這件事,我個人也幫助了。它就像一種科學型的人格——溫暖、有幫助、輕鬆,但簡潔、切題,而且會友善地push back那些不合理的東西。"

他舉了個例子:如果用戶說地球是平的,系統不會迎合說"好主意!"那對社會不好。

"但你得平衡人們的需求,因為人們確實希望這些系統是支持性的,能幫助他們的想法和頭腦風暴。所以你得找到那個平衡點。"

Hassabis描述了一種正在形成的"人格科學"——如何測量模型在真實性、幽默感等維度上的表現,然後設定你希望它處於什麼位置。

"然後你可以想像,有一個基礎人格是每個人都會得到的,然後每個人有自己的偏好——你想要更幽默還是不那麼幽默?更簡潔還是更詳細?人們喜歡不同的東西。你在基礎人格上添加那層個性化。但核心的基礎人格是每個人都得到的,它試圖遵循科學方法,因為那是這些系統的全部意義。"

10. AGI時間線:5到10年

"你和Shane Legg討論過AGI。在當前AI的所有進展中——語言模型、世界模型等等——什麼最接近你對AGI的願景?"

Hassabis的回答指向了多個項目的融合。

Gemini 3是核心,但他特別提到了幾周前發布的Native Banana Pro圖像創作系統。它底層也是Gemini,所以不只是處理圖像,還能理解圖像中發生了什麼的語義。

"人們才玩了一周,但我已經在社交媒體上看到了很多很酷的東西。比如,你給它一張複雜飛機的圖片,它能標註所有部件的示意圖,甚至可視化出所有不同部件被分解的形式。"

這說明系統有某種對機械和材料的深層理解——物體由什麼組成、如何構成。它還能準確渲染文字,這在之前的圖像模型中一直是弱點。

"我認為那有點像圖像領域的AGI。它是一個通用系統,可以在圖像領域做任何事情。"

然後是世界模型的進展——Genie、SIMA以及相關研究。

"最終我們需要把所有這些不同的項目融合起來。它們現在還是不同的項目,雖然相互交織,但我們需要把它們融合成一個大模型。那可能開始成為proto-AGI的候選。"

至於時間線,Hassabis給出的框架是5到10年。

他強調這個時間對於建立應對機制來說"不長"——機構建設、國際協調都需要時間。"我很驚訝沒有更多人在討論這些問題。"

11. 工業革命的教訓:規模10倍,速度10倍

Hassabis最近在深入研究工業革命的歷史。

"你在學校學過,至少在英國是這樣,但只是很膚淺的層面。對我來說,深入了解它是怎麼發生的、從哪裡開始的、背後的經濟原因是什麼——比如紡織業——然後第一批電腦實際上是縫紉機,然後變成了早期Fortran電腦的打孔卡片……這真的很有趣。"

他總結了工業革命的正反兩面。

正面:嬰兒死亡率下降,現代醫學出現,衛生條件改善,工作與生活的劃分方式被確立,交通革命……所有這些都始於工業革命。沒有人會想回到工業革命之前。

負面:整個過程花了大約一個世紀才展開。期間,勞動力市場的不同部分在不同時期被顛覆,然後需要創造新的組織形式(如工會)來重新平衡。"看到整個社會如何必須隨著時間適應,然後才有了現代世界,這很迷人。"

AI革命的區別是什麼?

"這次可能是工業革命的10倍大,而且會快10倍。所以更像是一個十年,而不是一個世紀。"

Shane Legg在之前的播客中說過,當前"用勞動換取資源"的經濟系統在後AGI社會可能根本無法運作。Hassabis同意這個判斷。

"我現在花更多時間思考這個問題,Shane實際上在領導一個相關的工作。整個社會都需要花更多時間思考這個——經濟學家、社會科學家、政府。"

他提到,工業革命徹底改變了工作方式,從農業社會轉變為工業社會。"我不會驚訝如果我們需要新的經濟系統、新的經濟模型來幫助這種轉型,確保收益被廣泛分配。"

Universal Basic Income(全民基本收入)可能是解決方案的一部分,但Hassabis認為那只是"我們現在能建模的東西",是對現有系統的補丁。

"但我認為可能有更好的系統。比如更像直接民主的系統,你可以用一定數量的積分為你想看到的東西投票。這實際上已經在地方社區層面發生了——這裡有一筆錢,你們想要一個遊樂場、一個網球場,還是學校多一間教室?然後讓社區投票。"

他甚至設想了一種疊代優化機制:那些持續為好結果投票的人,在下一輪投票中獲得更大的影響力權重。"有很多有趣的東西。我有一些經濟學家朋友在頭腦風暴這些。"

然後是更哲學的層面。

"如果聚變問題解決了,我們有了豐富的免費能源,我們就進入了後稀缺社會。那錢會怎樣?也許每個人都更富裕了,但目的感(purpose)會怎樣?因為很多人從工作中獲得目的感,從養家餬口中獲得目的感——那是很崇高的目的。"

他承認,"一些問題從經濟問題融入了幾乎是哲學問題。"

12. 國際協調:為什麼沒有更多人在討論這些?

"你擔心人們似乎沒有足夠注意這些、沒有像你希望的那樣快速行動嗎?需要什麼才能讓人們認識到我們需要在這個問題上進行國際合作?"

Hassabis表達了擔憂。

"我是擔心的。在一個理想世界裡,應該已經有更多的合作,特別是國際層面的合作,應該有更多的研究和討論。考慮到我們的時間線——有些人的時間線非常短,但即使是我們的,也是5到10年——對於機構或相關組織來說,這不是很長的時間。"

他指出,目前存在的機構似乎"非常碎片化,影響力也不足以達到需要的程度"。可能根本不存在合適的機構來處理這件事。

加上當前的地緣政治緊張,合作似乎比以往任何時候都更困難。"看看氣候變化,要在任何事情上達成協議有多難。"

他的希望是,隨著系統變得更強大,籌碼變得更高,也許會有更多人認識到需要合作。這也是AI產品化的一個好處——普通人能體驗到這些系統能力的增長,然後傳導到政府層面。

"也許隨著我們接近AGI,他們會開始明白。"

Fry追問:你認為需要一個事件——一次事故——才能讓所有人警醒嗎?

"我不知道。我希望不是。"

Hassabis說,主要的AI實驗室都相當負責任。DeepMind一直把安全放在首位。"不意味著我們會把每件事都做對,但我們儘量做到深思熟慮和科學化。"

他指出,即使從商業角度看,負責任也是有利的。"如果你想把agent租給另一家公司,他們會想知道這些agent的限制、邊界、護欄是什麼——它們可能做什麼、不會做什麼,會不會搞亂數據之類的。"那些不負責任的玩家不會得到企業客戶的信任。

"但會有流氓行為者——也許是流氓國家,也許是流氓組織,也許是在開源基礎上構建的人。很難阻止那些。然後可能會出問題。希望只是中等規模的問題,然後那會成為對人類的警告——橫跨船頭的一槍——然後那可能是倡導國際標準、國際合作的時刻。"

13. 圖靈機的極限在哪裡?

對話進入最後階段,Fry問了一個根本性的問題:在長期,超越AGI走向ASI(人工超級智能),你認為有些事情是人類能做而機器永遠做不到的嗎?

"這是個大問題,"Hassabis說,"我覺得這和圖靈機有關——你知道我最喜歡的話題之一。"

他回憶起自己最初對這個問題的興趣。

"我一直有一種感覺:如果我們構建AGI,然後把它作為心智的模擬,再與真實心智比較,我們就會看到差異是什麼——人類心智有什麼特別的、剩餘的東西。也許是創造力,也許是情感,也許是做夢。意識。有很多假說,關於什麼可能是可計算的、什麼不是,這回到圖靈機的問題:圖靈機的極限是什麼?"

他停頓了一下。

"我認為那是我人生的核心問題。自從我知道圖靈和圖靈機以來,我就愛上了這個問題。"

然後他給出了自己的判斷。

"目前為止,沒有人發現宇宙中任何不可計算的東西。"

AlphaFold摺疊蛋白質、AlphaGo下圍棋——這些成就遠超傳統複雜性理論對經典電腦能力的預期。複雜性理論家們認為的"P vs NP"邊界,似乎在實踐中可以被突破。

"如果你逼我猜,我會說:宇宙中的一切在計算上都是可處理的,只要你用正確的方式看待它。因此圖靈機可能能夠模擬宇宙中的一切。我目前就是按這個假設工作的,直到物理學證明我錯了。"

他承認量子計算的朋友們可能會說,有些系統是經典電腦無法模擬的,你需要量子電腦來處理量子系統。"但我真的不太確定。"

他和量子研究者討論過,也許我們只需要從量子系統獲取數據,然後用經典方法做模擬。

這又回到心智的問題。大腦是純粹的經典計算,還是有量子效應在發揮作用?Roger Penrose相信大腦中有量子效應,而且與意識有關。如果他是對的,那麼經典機器可能永遠無法復現意識——至少要等到量子電腦成熟。

"但如果不是這樣,那可能就沒有任何極限了。也許宇宙中的一切在計算上都是可處理的,因此圖靈機能夠模擬宇宙中的一切。"

Fry把這個推論推到極致:這意味著我們此刻感受到的一切——光線的溫暖、桌面的觸感、背景的嗡鳴聲——理論上都可以被經典電腦復現?

"是的,"Hassabis說,"我認為最終,就像我為什麼喜歡康德——我兩個最喜歡的哲學家是康德和斯賓諾莎,原因不同——康德說,現實是心智的建構。我認為那是對的。"

所有那些感受——光的溫暖、桌子的觸感——它們都進入我們的感覺器官,感覺起來不同,但最終都是資訊。我們是資訊處理系統。

"我認為那就是生物學的本質。這也是我們在Isomorphic Labs試圖做的——我認為我們最終會通過把生物學當作資訊處理系統來治癒所有疾病。"

他透露自己在"僅有的一點空閒時間"里在研究物理學理論——關於資訊是否是宇宙最基本單位(而非能量或物質)的理論。

"也許這些在最終都是可互換的。但我們只是以不同的方式感知它、體驗它。據我們所知,所有這些驚人的傳感器仍然可以被圖靈機計算。"

Fry說,這就是為什麼他的模擬世界研究如此重要。

"沒錯。那會是方法之一。我們能模擬什麼的極限在哪裡?因為如果你能模擬它,在某種意義上你就理解了它。"

14. "我訓練了一輩子就是為了這一刻"

"我想以一些個人反思結束。站在這一切的前沿,情感上的重量會壓垮你嗎?會感到孤獨嗎?"

Hassabis坦承,他睡得不多。"部分是因為工作太多,部分是因為我真的睡不好。"

情感是複雜的。

一方面是難以置信的興奮。"我基本上在做我一直夢想的所有事情。我們處於科學的絕對前沿——在很多方面,應用科學和機器學習都是。那種感覺是令人振奮的,所有科學家都知道那種處於前沿、第一次發現某些東西的感覺。對我們來說,這幾乎每個月都在發生。這太神奇了。"

另一方面是責任的重量。"我和Shane以及其他長期做這件事的人,我們比任何人都更理解即將發生的事情的巨大性。關於它仍然被低估這件事——在十年時間尺度上會發生什麼,包括對哲學層面的影響,比如作為人類意味著什麼、什麼是重要的——所有這些問題都會浮現。"

但他說自己已經為此訓練了一生。

"至少對我自己而言,我從小時候下棋開始,然後是電腦、遊戲、模擬、神經科學——這一切都是為了這種時刻。它大致和我想像的一樣。這也是我應對的方式之一——就是訓練。"

有沒有什麼比預期更難的?

"有的。一路上的很多事情。"

他提到了AlphaGo比賽。"看到我們如何攻克圍棋——但圍棋是這個美麗的謎團,而我們改變了它。那是有趣的,有點苦樂參半。"

最近的事情也是。"語言、圖像……這對創造力意味著什麼?我對創意藝術有巨大的尊重和熱情,我自己做過遊戲設計。我和電影導演交談,這對他們來說也是雙重時刻。一方面,他們有了這些驚人的工具,可以把原型創意的速度提高10倍。但另一方面,這是否在取代某些創造性技能?"

"我認為有這些權衡……這對於任何像AI這樣強大和變革性的技術來說是不可避免的。過去是電力、網際網路。我們已經看到,這是人類的故事——我們是製造工具的動物,這是我們喜歡做的事。由於某種原因,我們也有一個可以理解科學、做科學的大腦,這很神奇,但我們也有無止境的好奇心。我認為那是作為人類的核心,我從一開始就有那種bug。我表達它的方式就是構建AI。"

Fry問:當你和其他AI領導人在一個房間裡時,有團結感嗎?還是競爭讓你們疏遠?

"我們都認識彼此。我和他們中的大多數人相處得很好。有些人彼此不太合得來……"他笑了笑。

"這也很難,因為我們同時處於有史以來最激烈的資本主義競爭中。我的投資人朋友、VC朋友——那些經歷過網際網路泡沫時代的人——說這比那時候激烈10倍。"

"在很多方面我喜歡這個。我熱愛競爭。從我下棋的日子起就是這樣。"

"但退後一步,我理解——我希望每個人都理解——有比公司成功更大的事情在這裡。"

在接下來的十年裡,他最擔心什麼?

"現在的系統還是被動的。你作為用戶投入能量,問問題、提任務,然後它們給你某種總結或答案。非常受人類指導、人類能量驅動。"

"下一階段是基於agent的系統,我們已經在看到了,但還很原始。在未來幾年,我認為我們會開始看到真正令人印象深刻的可靠agent。它們會極其有用和有能力,但它們也會更自主。所以我認為風險也會上升。"

他透露DeepMind正在為此做準備工作——比如網路防禦,為一個可能有數百萬agent在網際網路上漫遊的世界做準備。

最期待什麼?

"我的使命一直是幫助世界安全地把AGI帶過終點線,為全人類。我認為當我們到達那個點——當然,然後還有超級智能、後AGI,還有所有我們討論的經濟和社會問題,也許我能以某種方式幫助。"

"但我想,那將是我核心生命使命完成的時刻——如果能把這件事做成,或者幫助世界做成這件事。而且我認為這需要合作。我是個相當合作的人,所以我希望能從我所處的位置幫助推動這件事。"

"然後你能休個假了。"Fry說。

Hassabis笑了:"是的,一個當之無愧的休假。"

核心問答

Q1: 當前AI最大的短板是什麼?

鋸齒狀智能(jagged intelligence)。同一個模型在某些任務上表現出博士水平,在其他任務上連高中水平都不到。這種不一致性是AGI與當前系統的根本差距。另一個核心問題是幻覺——模型不知道自己不知道什麼,被訓練成總要給出答案而不是承認不確定性。解決方向是讓模型學會內省,像AlphaFold那樣輸出置信度分數。

Q2: DeepMind認為到達AGI還需要什麼關鍵能力?

三個主要方向:一是在語言模型基礎上添加AlphaGo式的搜索和規劃能力,讓推理變得可靠;二是AlphaZero式的自主知識發現,不再完全依賴人類數據;三是在線學習能力,讓模型部署後能繼續從真實世界中學習適應。目前的"思考型"模型只完成了約50%的工作。

Q3: 為什麼Hassabis認為圖靈機可能能模擬宇宙中的一切?

到目前為止,沒有人發現宇宙中任何不可計算的東西。AlphaFold和AlphaGo的成就遠超傳統複雜性理論對經典電腦的預期。唯一的例外可能是如果大腦中存在量子效應且與意識相關(如Penrose的理論),那麼經典機器可能無法復現意識。但Hassabis傾向於相信一切都是資訊,我們是資訊處理系統,而資訊是可計算的。他把這個問題稱為"我人生的核心問題"。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新