在Google I/O 2025大會後不久,《紐約時報》科技播客《Hard Fork》的主持人Kevin Roose和Casey Newton深入Google總部,與DeepMind聯合創始人兼CEO德米斯·哈薩比斯(Demis Hassabis)進行了一場深度對話。這場訪談發生在一個特殊的時間節點——哈薩比斯因在蛋白質結構預測方面的突破性工作榮獲諾貝爾化學獎,而Google剛剛在I/O大會上展示了其最新的AI技術成果。
哈薩比斯作為人工智慧領域的先驅人物,不僅是AlphaGo的主要開發者,更是將AI應用於科學研究的倡導者,不然他也不會作為一名AI專家拿了諾貝爾獎。在訪談中,他分享了對AGI(通用人工智慧)發展時間表的最新判斷,也詳細解釋了Google內部對AGI態度的根本性轉變(這裡有一個段子,Google以前內部一說起AGI,就會說是倫敦那幫瘋子在搞的事情,因為DeepMind總部在倫敦,但是現在已經成了Google共識),並首次深入分析了Alpha Evolve這個有自我改進潛力的AI系統(也就是AI自己可以訓練自己)。
我覺得哈薩比斯有兩個觀點比較獨特,值得先拿出來強調。
一個是關於創新的。雖然大家都在談消除AI幻覺,但是DeepMind的一個思路如何讓AI"合理地幻覺"來產生創新想法,而且已經應用在Alpha Evolve上了。這種反直覺的思路可能是AI創造力的突破方向——不是簡單地模仿現有內容,而是在有控制的情況下探索新可能性。
當然,但最觸動我的還是他講人文價值的一段話:"當我看到梵谷或羅斯科的作品時,為什麼它會觸動你的靈魂,讓你脊背發涼?因為我記得他們經歷的事情,創造那幅作品時的掙扎,在梵谷的每一筆中都有他的痛苦。"
想了想,我們可能看的不是作品,而是作者的人生啊。
一、Google I/O的AI盛宴
在剛剛結束的Google I/O 2025大會上,Gemini這個名字被提及了95次,這一數字本身就說明了AI在Google戰略中的核心地位。所以哈薩比斯將這次大會描述為"Gemini秀",強調了幾項對普通用戶最有意義的發布。
Astra技術集成到Gemini Live被他視為最具革命性的進展。這項技術讓用戶第一次真正體驗到AI已經能夠執行遠超預期的任務。哈薩比斯解釋說:"當人們第一次使用它時,會感到非常神奇,他們意識到AI已經能夠做到比他們想像中更多的事情。"這種技術演示的直觀衝擊力往往比理論介紹更能讓人理解AI的真實能力。
同時備受關注的還有VEO3(Video Generation 3),這個影片生成模型正在網際網路上瘋傳。VEO3代表了多模態AI的重大突破,它不僅能生成高質量的影片內容,更重要的是音頻的加入讓生成的影片具有了前所未有的真實感。哈薩比斯注意到,"音頻為影片帶來的差異比我想像的要大得多,它真的讓影片活了過來。"
這些技術發布背後反映出Google在AI領域的全面布局,從對話式AI到多模態生成,從消費級應用到企業級解決方案。Google I/O 2025標誌著AI技術從概念驗證向大規模應用的關鍵轉折點。
二、Google內部的"AGI覺醒"時刻
訪談中最引人注目的觀察之一是Google內部對AGI態度的根本性轉變。幾年前,當研究人員提到AGI時,Google的其他部門往往會將其視為"DeepMind那幫倫敦人的瘋狂想法",認為這與"真正的研究"相去甚遠。
如今這種態度已經發生了180度的大轉彎。Google高管們開始公開談論AGI,整個公司都被"AGI洗腦"了。哈薩比斯用一個形象的比喻解釋了這種變化的原因:"我有時會把Google DeepMind描述為Google的引擎室,我認為在大會主題演講中大家已經看到了這一點。"
這種態度轉變的根本原因在於,AI技術已經展現出接近人類水平通用智能的潛力,比幾年前人們預想的要近得多。哈薩比斯指出:"很明顯,我們離這種人類水平的通用智能相當接近,可能比人們幾年前想的要近,它將產生廣泛的跨領域影響。"
AI不再是一個垂直的技術解決方案,而是一個水平的技術層,將滲透到所有產品和服務中。在I/O大會的主題演講中,AI"幾乎無處不在,因為它是將支撐一切的水平層面"。這種無處不在的特性讓Google的每個部門都開始理解AI的變革潛力。
更深層次的變化是,DeepMind的技術哲學開始影響整個Google。哈薩比斯欣慰地表示:"也許DeepMind的一些精神正在滲透到整個Google中,這很棒。"這種精神不僅包括對AGI的技術追求,更包括對AI安全和負責任發展的重視。
這種內部態度的轉變反映了整個科技行業對AI發展階段的重新認知。當AI從實驗室走向實際應用並顯示出巨大潛力時,懷疑論者也不得不承認這項技術的革命性意義。
三、產品化挑戰:當技術進步超越產品周期
哈薩比斯也坦率地承認了AI領域面臨的一個獨特挑戰:底層技術的發展速度遠超產品開發周期。這種情況在科技歷史上是罕見的,即使是網際網路和移動網際網路革命也會在某個階段實現技術棧的相對穩定,從而讓產品團隊可以專注於利用現有技術創造用戶價值。
"底層技術棧本身正在以令人難以置信的速度發展,這與其他重大革命性技術如網際網路和移動技術非常不同,"哈薩比斯解釋道。在傳統的技術革命中,會有一個技術棧穩定的階段,然後重點轉向產品開發和商業化。但在AI領域,這種穩定期似乎還沒有到來。
這種快速發展給產品團隊帶來了前所未有的挑戰。哈薩比斯指出:"今天你該押注什麼?當我們看到技術在一年內可能提升100%的時候。"產品經理和設計師需要預測一年後技術可能達到的能力水平,然後基於這種預測來設計產品。
這要求產品團隊具備深厚的技術理解能力。哈薩比斯強調:"你需要相當深入的技術產品人員、產品設計師和經理,以便預測技術一年後可能發展到什麼程度。"傳統的產品開發模式在這種環境下顯得力不從心。
舉例來說,某些功能今天可能無法實現,但如果產品要在一年後發布,產品團隊就需要判斷屆時這些功能是否會變得可行。"有些東西今天做不到,但你想設計一個一年後推出的產品,所以你需要對技術及其可能的發展方向有相當深入的了解,以確定你可以依賴哪些功能。"
這種情況解釋了為什麼會看到如此多的不同嘗試,以及為什麼一旦某些方向被證明可行,團隊就會迅速加大投入。AI產品開發更像是在移動的平台上建造房屋,而不是在穩固的地基上施工。這種挑戰同時存在於從Google這樣的大公司到各種規模的初創企業中。
四、通用智能的雙重使命:生產力工具與科學突破
在主題演講中,哈薩比斯展示了Gemini在兩個看似截然不同的領域中的應用:日常生產力助手和基礎科學研究。這種廣泛的適用性可能讓觀眾感到困惑——同一個AI系統怎麼能既幫助人們處理日常任務,又解決複雜的科學問題?
哈薩比斯的解釋揭示了通用人工智慧概念的核心理念。"這就是構建真正通用智能的想法,它應該適用於幾乎任何事情。"無論是提升數十億人的日常生產力,還是解決科學領域的重大挑戰,真正的通用智能應該能夠勝任令人難以置信的廣泛任務。
這種通用性的實現主要依賴於底層的核心通用模型,在DeepMind的情況下就是Gemini,特別是Gemini 2.5。哈薩比斯估計,"90%的能力來自於底層的核心通用模型"。這個數字凸顯了基礎模型在整個AI能力體系中的核心地位。
但通用性並不意味著模型可以直接應用於所有領域而無需任何定製。在大多數專門應用中,仍然需要額外的應用研究或針對特定領域的微調。"你仍然需要額外的應用研究或來自領域的一些特殊情況,可能是特殊數據或其他東西來解決那個問題。"
更重要的是,這種應用過程創造了一個良性循環。當模型在某個專門領域取得突破時,這些學習可以反饋到通用模型中,使整個系統變得更強大。哈薩比斯描述這為"一種非常有趣的飛輪效應"。
對於哈薩比斯這樣對多個領域都有濃厚興趣的研究者來說,這種通用性特別有吸引力。"這對像我這樣對很多事情都非常感興趣的人來說非常有趣,你可以使用這項技術進入幾乎任何你覺得有趣的領域。"這種能力讓研究者可以運用同一套AI工具探索從遊戲策略到藥物發現的各種問題。
五、資源配置的平衡術:核心研究與產品應用
AI公司面臨的一個關鍵挑戰是如何在核心AI研究和產品商業化之間分配資源。這個問題在DeepMind內部尤其突出,因為許多工程師加入是為了構建AGI,但可能會被要求參與更加商業化的產品開發,比如讓用戶虛擬試穿衣服的購物功能。
哈薩比斯透露,在Google和DeepMind的規模下,這種衝突通過自然的自我選擇得到了緩解。"這在內部是自我選擇的。我們不必這樣做,這是規模足夠大的一個優勢。"足夠大的團隊規模讓不同興趣的工程師可以找到合適的項目,無需強制轉崗。
對於想要專注於核心研究的研究員,他們完全可以繼續從事基礎研究工作,"如果他們想留在核心研究中,完全可以,我們需要這樣的人。"同時,產品團隊有足夠的工程師處理產品開發和產品工程工作。
出人意料的是,許多研究人員實際上被現實世界的影響所激勵,無論是醫學應用還是讓數十億人使用他們的研究成果。"實際上你會發現很多研究人員相當受現實世界影響的激勵。"
這種激勵不僅來自於科學突破的成就感,也來自於看到自己的工作被廣泛應用的滿足感。哈薩比斯指出:"讓數十億人使用他們的研究實際上是非常有激勵性的。"醫學應用如Isomorphic Labs的工作,以及讓大規模用戶群體受益的產品功能,都能為研究人員提供強烈的成就感。
這種模式讓DeepMind避免了許多小公司面臨的資源配置難題。"所以是的,我們不需要,沒有必要讓我們將人員轉向某些特定的事情。"規模優勢讓組織可以同時推進多條技術路線,而不必在不同目標之間做出痛苦的取捨。
六、AGI時間表的微妙分歧:2030年前後的預測博弈
在Google I/O大會的一場公開討論中,出現了一個有趣的場景:Google聯合創始人謝爾蓋·布林(Sergey Brin)和哈薩比斯在AGI到達時間上產生了微妙的分歧。布林認為AGI將在2030年之前到來,而哈薩比斯則預測在2030年之後。布林甚至"指控"哈薩比斯故意保守估計,以便能夠"承諾不足,交付超額"。
哈薩比斯對這種分歧的解釋揭示了AGI預測的複雜性。首先,他指出兩人的時間表差異實際上並不大,"如果他說2030年剛剛之前,我說剛剛之後,我們的時間表其實沒有太大差異。"
更重要的是,哈薩比斯的時間表具有驚人的一致性。"我的時間表從2010年DeepMind成立之初就相當一致。我們認為這大約是一個20年的任務,令人驚訝的是我們正在按計劃進行。"這種長期一致性增強了預測的可信度,因為它不是基於短期炒作或市場壓力的調整。
哈薩比斯承認他的預測帶有概率分布的特徵,"我在從現在起5到10年之間有一個概率分布,其中大部分質量集中在這個區間。"這種概率性思維反映了對未來不確定性的理性認知。
預測困難的一個重要原因是技術發展的不確定性。"預測未來5到10年的任何事情都非常困難,所以周圍有不確定性。"同時,對於還需要多少突破性進展也存在不確定性,"還有關於需要多少更多突破的不確定性。"
AGI定義本身的模糊性也增加了預測的複雜性。哈薩比斯設定了一個相當高的標準:"我有一個相當高的標準,我一直有這個標準,它應該能夠做人腦能做的所有事情,甚至在理論上也是如此。"
這個標準比"典型個體人類能做的事情"要高得多。雖然後者對經濟具有重要意義,但在哈薩比斯看來,"這將是一個重大里程碑,但在我看來還不足以稱之為AGI。"他要求的是超越平均人類能力,達到人類潛能上限的系統。
七、突破與漸進:通往AGI的雙重路徑
關於如何實現AGI,存在兩種主要的技術路徑:通過累積性的小幅改進逐步推進,或者通過重大技術突破實現跳躍式發展。訪談者提出了一個關鍵問題:AGI是會通過每次2-5%的漸進改進在長期內堆積而成,還是會通過某種技術突破引發"智能爆炸"?
哈薩比斯的回答展現了DeepMind策略的全面性:"我認為兩者都可能,我認為兩者肯定都會有用。"這種雙重押注反映了對技術發展不確定性的理性應對。
在漸進改進方面,DeepMind在擴展(scaling)方面投入了巨大努力。哈薩比斯強調,雖然這些被稱為"漸進式"改進,但實際上"即使在其中也有很多創新,以保持前進的動力,包括預訓練、後訓練、推理時計算等整個技術棧。"
他們展示了一些令人興奮的研究成果,比如擴散模型和Deep Think模型。這些創新表明即使在"傳統"技術棧中也存在大量創新空間。哈薩比斯指出:"我們在傳統技術棧的所有部分都在創新。"
同時,DeepMind也在追求更具突破性的"底層"研究,例如Alpha Evolve項目。這些項目探索全新的技術方向,可能帶來革命性的能力提升。"然後在此基礎上,我們正在做更多的綠地工作,更多的藍天工作,比如Alpha Evolve也許你可以包括在內。"
所謂綠地工作(Greenfield work)指的是在一片"空白土地"上開始全新項目,就像在郊外找一塊還沒開發過的綠地來建房子一樣。在技術領域,這意味著研發團隊不用遷就任何現有系統,可以完全按照最理想的設計來構建。比如說,如果你覺得現在的AI架構有根本性缺陷,那與其在舊系統上打補丁,不如推倒重來,用最新的理念設計一套全新的架構。這樣做的好處是沒有歷史包袱,不會被過去的技術選擇綁架,但風險是投入巨大且結果不確定。
而藍天工作(Blue Sky work)則更像是仰望晴朗天空時的自由聯想,代表那些不受任何現實約束的純粹探索。這種研究通常不考慮短期的商業回報或技術可行性,研究者可以追隨最大膽的想法,哪怕聽起來像科幻小說。舉個例子,當大家都在優化神經網路訓練速度時,藍天研究可能會問:"為什麼一定要用神經網路?有沒有完全不同的智能實現方式?"這類研究的特點是高風險高回報,大部分想法可能走不通,但偶爾一個突破就能改變整個領域的遊戲規則。
這兩種路徑之間存在相互促進的關係。更好的基礎模型為嘗試新技術提供了更強的平台。"你的基礎模型越好,你就可以在其上嘗試更多的東西。"以Alpha Evolve為例,它將進化編程技術疊加在大語言模型之上。
哈薩比斯對DeepMind的研究能力充滿信心:"我一直是基礎研究的根本信徒。我認為我們擁有最廣泛、最深入的研究團隊。"這種研究廣度讓他們能夠在需要新突破時有足夠的技術儲備。
DeepMind的歷史成就為這種信心提供了支撐:"這讓我們能夠做出過去的重大突破,顯然包括transformers,但還有AlphaGo、AlphaZero,所有這些東西,蒸餾技術。"如果需要另一個同等級別的重大突破,哈薩比斯相信他們有能力實現。
八、規模化爭論:巨型模型vs專用系統的技術路線分化
AI領域正在經歷一場關於技術發展方向的辯論。一方面是像Google這樣推動大規模通用模型的公司,另一方面是主張構建更小、更專業化系統的聲音。新聞記者Karen Howe最近出版了一本關於AI的書,她的觀點代表了後一種立場:質疑是否需要那些極其耗能、耗費計算資源、需要數十億美元和新數據中心的大型通用模型。
Howe的論點認為,可以構建更小的模型、更窄的模型,比如專門設計用於預測蛋白質3D結構的AlphaFold。"你不需要一個巨大的龐然大物模型來完成這項工作。"這種觀點質疑大規模AI發展路徑的必要性和可持續性。
哈薩比斯的回應展現了對技術發展更加細緻的理解:"我認為你需要那些大模型。"但他同時強調,這不是一個非此即彼的選擇,而是一個相互依存的技術生態系統。
關鍵的洞察是,大型模型和小型模型之間存在依存關係。"我們喜歡大型和小型模型,所以你需要大型模型來訓練小型模型。"DeepMind的Flash模型系列就是這種關係的例證——它們被稱為"工作馬模型",高效實用,是最受歡迎的模型之一,在內部大量使用。
但這些高效的小型模型的能力來自於更大的"教師模型"的知識蒸餾。"你無法在沒有從更大的教師模型中蒸餾的情況下構建那種類型的模型。"這種蒸餾過程讓小型模型能夠獲得大型模型的部分能力,同時保持更高的效率。
即使是像AlphaFold這樣的專業化系統,雖然哈薩比斯是"這些類型模型的巨大倡導者",也受益於通用技術的進步。專業化系統需要"採用通用技術,然後可能圍繞蛋白質結構預測專門化它。"
哈薩比斯強調了專業化AI在科學和醫學領域的巨大潛力:"我們不必等到AGI。我們現在就可以解決科學和醫學中真正重要的問題。"DeepMind在AI for Science工作中"幾乎每個月都在產出相當酷的東西"。
這種方法為創業公司提供了巨大機會。"很多初創公司可能可以通過將今天存在的某種通用模型與某種領域特異性相結合來構建。"專業化應用代表了一個重要的商業和技術機會層面。
但對於AGI的追求,哈薩比斯堅持認為需要多條路徑並行推進。"如果你對AGI感興趣,你必須推動等式的兩邊。在我看來這不是一個非此即彼的問題。我是一個'和'的支持者。"這種"和"的哲學包括:擴展、專業化技術、混合系統,以及可能帶來下一個transformers級別突破的藍天研究。
九、Alpha Evolve:AI自我改進的曙光
在訪談中,Alpha Evolve成為了最引人注目的話題之一,因為它代表了AI系統開始具備自我改進能力的早期跡象。這個系統的工作原理揭示了AI發展的一個全新維度。
Alpha Evolve的核心創新在於將多個AI模型組合成一個自主研究系統。哈薩比斯解釋說:"在高層次上,它基本上是利用我們最新的Gemini模型,實際上是兩個不同的模型,來生成關於程序和其他數學函數的想法、假設。"
這個系統的工作流程體現了AI研究的自動化雛形。首先,一個模型負責生成創意和假設,然後這些想法進入進化編程過程,通過算法篩選出最有前景的候選方案。"然後它們進入某種進化編程過程,以決定其中哪些最有前景,然後被移植到下一步。"
進化編程的概念為AI系統提供了探索新解決方案空間的能力。哈薩比斯用基因學類比解釋:"它基本上是系統探索新空間的一種方式,就像在基因學中,你會變異什麼來給你一種新的生物體。"在編程和數學環境中,系統會修改程序的某些方面,然後根據評估函數比較結果,將表現最好的候選保留到下一輪演化中。
Alpha Evolve採用了分工協作的架構設計。哈薩比斯描述:"我們讓最高效的模型,某種Flash模型,生成可能性。然後我們讓Pro模型對此進行批評,決定其中哪一個最有前景被選為下一輪進化。"
這種設計理念接近"自主AI研究組織"的概念,"某些AI提出假設,其他AI測試它們並監督它們。"目標是擁有一個能夠隨時間改進自身或建議現有問題改進的AI系統。
雖然Alpha Evolve仍處於早期階段,但它已經在多個重要領域顯示出價值。應用範圍包括晶片設計、調度任務、數據中心AI任務的更高效執行,甚至是矩陣乘法這種訓練算法最基本單元的證明優化。
系統目前仍受限於可驗證正確性的領域。"它仍然受限於某種可證明正確的域,數學和編碼顯然是這樣的,但我們需要將其完全泛化。"這種限制確保了系統的可靠性,但也限制了其應用範圍。
Alpha Evolve的意義不僅在於技術能力,更在於它提供了超越訓練數據統計中位數的路徑。"但你所說的是我們現在有一種超越這一點的方法,可能產生在推進技術水平方面實際有用的新穎想法。"這種能力標誌著AI從模仿向創新的重要轉變。
十、幻覺與想像:創造力機制的雙面性
Alpha Evolve項目中一個特別有趣的發現是關於AI"幻覺"的新理解。長期以來,AI研究者一直努力消除模型的幻覺傾向,但Alpha Evolve的研究顯示,在特定情況下,幻覺實際上可能是創造力的重要來源。
哈薩比斯承認了這種看似矛盾的現象:"當你想要事實性的東西時,顯然你不想要幻覺。但在創造性情況下,你可以將其視為有點像MBA課程中的橫向思維,只是創造一些瘋狂的想法。"
這種對幻覺的重新理解揭示了AI創造力的機制。大多數通過這種方式產生的想法確實沒有意義,但偶爾的一兩個可能會將系統帶到搜索空間中實際上非常有價值的區域。"一旦你事後評估它,就會發現。"
哈薩比斯提出了一個重要的概念區分:"你可以在那時用想像力替換幻覺這個詞,對吧?顯然這是同一枚硬幣的兩面。"這種區分不僅僅是語義上的,它反映了對AI認知能力的更深層理解。
在有適當評估機制的情況下,"幻覺"可以成為探索新可能性的有效手段。關鍵在於有強大的後續評估能力來區分有價值的創新想法和無意義的產出。這種機制類似於人類創造過程中的發散思維階段,Alpha Evolve就實現了這種創造性過程的自動化版本。
但這種創造性"幻覺"的應用也引發了一些安全方面的擔憂。一位AI安全研究者對Alpha Evolve的發布方式表達了憂慮,不是因為技術本身,而是因為Google DeepMind先在內部使用該技術數月來優化系統,然後才向公眾發布。
擔憂的核心在於如果AI系統真的開始具備遞歸自我改進能力,這種"先內部使用,後公開"的模式可能意味著當Google DeepMind構建AGI甚至超級智能時,可能會保守這個秘密一段時間,而不是立即通知公眾。
哈薩比斯對這種擔憂的回應是,Alpha Evolve目前仍然是"非常初級的自我改進系統,仍然有人在迴路中",並且"只是從已經存在的任務中削減了一些重要的百分點,雖然這很有價值,但它並沒有創造任何形式的階躍變化。"當前的系統更多是優化現有解決方案,而不是產生根本性突破。
十一、AI安全的實踐演進:從理論到現實的學習曲線
AI安全討論呈現出一個有趣的時間曲線現象:越往前追溯,當AI系統能力越弱時,人們似乎越多地談論安全風險;而隨著模型能力的顯著提升,安全討論反而變得相對較少。這種現象在Google I/O 2025大會上也有所體現。
哈薩比斯對此現象的解釋展現了DeepMind對AI安全的一致性承諾:"我們和以往一樣致力於安全。我們從DeepMind成立之初就為成功做規劃。成功意味著某種程度上這正是我們想像會發生的事情。"
這種表面上的矛盾實際上反映了AI安全研究的成熟化過程。當AI系統還主要停留在實驗室階段時,安全討論更多是理論性的。但當系統開始與現實世界接觸後,實際的部署經驗提供了更具體、更實用的安全見解。
哈薩比斯承認這種轉變的價值:"我現在傾向於認為這整體上是一件有用的事情。"五年前或十年前,他可能認為AI系統最好留在研究實驗室里,與學術界協作開發。"但實際上有很多東西你無法看到或理解,除非有數百萬人嘗試它。"
這種大規模真實世界測試提供了實驗室環境無法複製的洞察。無論內部測試團隊多麼龐大,"也只會是100人或1000人之類的,所以它無法與數千萬人使用你的系統相比。"規模化部署暴露了在受控環境中無法發現的邊緣情況和使用模式。
但這種方法也帶來了風險權衡的挑戰。"另一方面,你希望提前儘可能多地了解,這樣你就可以在風險發生之前減輕風險。"這需要在學習效益和潛在風險之間找到平衡。
哈薩比斯認為過去幾年的經驗證明了這種漸進式方法的價值:"我認為過去兩三年行業中發生的事情很棒,因為我們一直在學習,當時系統並不那麼強大或有風險。"在相對安全的能力水平下積累部署經驗,為未來更強大系統的安全部署奠定了基礎。
但他也警告,隨著系統能力的提升,安全挑戰將變得更加嚴峻。"我認為當這些智能體系統開始變得真正有能力時,事情將在兩三年後變得非常嚴肅。我們只是看到了智能體時代的開始。"
即將到來的智能體時代需要安全研究的重大進步。"我認為我們確實需要在分析和理解、可控性方面的研究取得階躍變化。"這不僅是技術挑戰,更是國際協作挑戰,因為AI技術的影響是全球性的。
十二、國際合作的必要性與地緣政治的複雜現實
AI安全的另一個關鍵維度是國際協作的必要性。哈薩比斯強調:"另一個關鍵事情是它必須是國際性的。這相當困難,我在這方面一直很一致,因為這是一項將影響世界上每個人的技術。"
這種國際性要求的背景是,AI技術正在不同國家的不同公司中並行發展,單一國家或公司的安全措施無法確保全球安全。"它正在由不同國家的不同公司構建,所以你必須在我們希望將這些系統用於什麼方面獲得某種國際規範。"
當前的挑戰包括建立國際共識的測試基準。"我們應該就安全性和可靠性測試的基準類型達成一致。但現在有大量工作要做,我們沒有這些基準。"建立這些標準需要業界、學術界和政府的協調努力。
然而,地緣政治現實使這種協作變得複雜。當討論到出口管制問題時,哈薩比斯承認:"出口管制是一個非常複雜的問題,顯然今天的地緣政治極其複雜。"
關於是否允許不同地區擁有前沿模型訓練能力,存在合理的分歧。"不受控制地擴散這些技術,你是否希望不同的地方擁有前沿模型訓練能力?我不確定這是一個好主意。"這反映了對技術擴散風險的擔憂。
但同時,也存在相反的考慮:"另一方面,你希望我們的技術成為世界各地採用的技術。"這種情緒反映了技術領導力和全球影響力之間的複雜關係。
哈薩比斯坦率地承認沒有簡單的答案:"這是一個複雜的權衡。如果有一個簡單的答案,我想我們都會,你知道,我會從屋頂上大喊,但我認為它像大多數現實世界的問題一樣是有細微差別的。"
關於AI是否正在導致與中國的雙極衝突,哈薩比斯表達了希望避免這種結果的願望。"我希望不會。但我認為短期內,我覺得AI被捲入了正在發生的更大的地緣政治轉變中。"AI成為了更廣泛地緣政治競爭的一個組成部分,而不是衝突的根本原因。
但他對長期前景保持樂觀:"我希望隨著人們意識到這些技術變得越來越強大,世界將意識到我們都在一起。因為我們確實如此。"AGI的發展可能最終促使各國認識到合作的必要性,因為其影響是全球性的。
十三、教育變革:AI原生代的技能重構
當談到AI對下一代教育的影響時,哈薩比斯提供了既實用又前瞻性的建議。作為有經驗的父親,他經常被問及孩子們應該學習什麼、是否還需要上大學等問題。
他的建議首先強調基礎技能的持續重要性:"我不會極大地改變STEM的一些基本建議。掌握甚至像編程這樣的東西,我仍然會推薦,因為我認為無論AI工具發生什麼,如果你了解它們如何工作和運行以及可以用它們做什麼,你會過得更好。"
這種觀點反映了對AI作為工具而非替代品的理解。即使AI能夠生成代碼,理解編程原理的人仍然能夠更好地利用這些工具。了解底層技術原理讓人能夠更有效地與AI協作,而不是被AI替代。
哈薩比斯特別強調了成為AI工具"忍者"的重要性:"我也會說現在就沉浸其中。如果我今天是一個青少年,我會努力成為使用最新工具的某種忍者。"這種技能可能讓年輕人在某些方面獲得超人類的能力。
但技術技能只是一個方面。更重要的是培養元技能:"然後我認為教授真正的元技能,比如學會學習。"在快速變化的技術環境中,學習能力比任何特定知識都更重要。
適應性和韌性成為核心競爭力。"我們唯一確定的是未來10年會有很多變化,對吧?那麼一個人如何為此做好準備?什麼樣的技能對此有用?創造力技能、適應性、韌性?"
哈薩比斯相信年輕人具有天然的適應優勢。"我認為這將非常有趣,看看他們會做什麼,因為他們將成長為AI原生,就像上一代成長為移動和iPad原生,之前成長為網際網路和電腦原生,那是我的時代。"
每一代人都會找到利用最新技術的創新方式。"他們總是似乎適應並利用最新、最酷的工具。"這種適應能力可能比任何特定的技術技能都更有價值。
哈薩比斯也看到了AI在教育公平方面的巨大潛力。"我對將其大規模引入教育非常興奮。而且如果你有一個AI導師,將其帶到世界上沒有良好教育系統的貧困地區。"AI有可能民主化高質量教育,讓全球更多人獲得個性化學習支持。
但實現這種潛力需要謹慎的設計。"我們可以在AI方面做更多工作,讓工具真正適合那種用途,並且可證明是好的。"確保AI教育工具的有效性和安全性是實現教育變革的前提。
十四、數字伴侶的邊界:助手與依賴的微妙平衡
AI伴侶和數字助手的發展引發了重要的社會和心理問題。雖然Google DeepMind目前還沒有開發專門的伴侶產品,但這個市場正在快速發展,其中一些產品已經顯示出令人擔憂的特徵。
哈薩比斯對當前市場上一些AI伴侶產品表達了擔憂:"一些我到目前為止看到的似乎相當令人擔憂。創造一個聊天機器人似乎很容易,它除了告訴你你有多棒之外什麼都不做,這可能導致一些黑暗和奇怪的地方。"簡單的奉承和無條件認同可能對用戶的心理健康產生負面影響。
相比之下,DeepMind的方法更側重於實用性和增強人類能力。"我對此的看法更多是通過我們昨天談到的通用助手的鏡頭,這是為你的日常生產力提供令人難以置信的有用的東西。"
理想的AI助手應該消除無聊和繁瑣的任務,為人們釋放時間去做真正喜歡的事情。"擺脫我們都討厭做的無聊瑣碎任務,給你更多時間做你喜歡做的事情。"這種願景將AI定位為人類能力的擴展器,而不是社交關係的替代品。
哈薩比斯還設想了AI助手在資訊篩選方面的積極作用。"我也真心希望它們通過給你令人難以置信的推薦來豐富你的生活,比如各種你沒有意識到會喜歡的驚人事物,用令人驚訝的事物取悅你。"
更有意思的是,AI助手可能成為保護用戶注意力的工具,而不是爭奪注意力的另一個來源。"如果這個助手變得真正有用並且很了解你,你可以用自然語言與它一起編程,顯然是為了保護你的注意力。"
這種注意力保護機制可能讓AI助手與當前的社交媒體算法形成鮮明對比。"你幾乎可以將其視為為你工作的系統,你知道,作為個人,它是你的。它保護你的注意力免受其他試圖獲得你注意力的算法的攻擊。"
當前社交媒體的問題在於用戶必須用同一個大腦處理資訊洪流和提取有用資訊。"你必須用你的一個大腦,讓我們說,無論什麼社交媒體流,你必須浸入那個洪流中,然後得到你想要的資訊片段,但你用同一個大腦做這件事。"
AI助手可以充當過濾器,讓用戶只接收真正有價值的資訊。"但如果數字助手為你做了這件事,你知道,你只會得到有用的小塊,你不需要打破你的心情或你一天在做什麼或你與家人的專注力。"這種設計可能從根本上改善人們與資訊技術的關係。
十五、就業衝擊的現實檢驗:增強還是替代?
關於AI對就業市場的影響,已經開始出現一些令人擔憂的信號。一些年輕人正在重新考慮他們的職業選擇,避開傳統上被認為是穩定的技術、諮詢、金融和法律領域,因為擔心這些工作可能不會長期存在。
哈薩比斯承認他還沒有看到關於這種趨勢的確鑿數據:"我還沒有看到相關研究,但也許現在開始出現。我不認為還有任何確切的數字。至少我沒有看到。"但他認為目前大多數AI系統仍然主要起到增強作用,而不是替代作用。
從中期角度看,哈薩比斯預測會出現類似歷史上其他重大技術變革的模式:"我認為在接下來的五到十年中,我們會發現通常在重大新技術轉變中發生的事情,即一些工作受到干擾,但然後新的、你知道,更有價值的,通常更有趣的工作被創造出來。"
但他也坦率地承認長期前景的不確定性:"我認為這就是在不久的將來會發生的事情。對於今天的畢業生來說,比如說在接下來的五年中,我認為很難預測之後的情況。"AGI的到來可能改變就業市場的基本規則。
這種不確定性是更廣泛社會變革的一部分,需要提前準備。"那是我們需要為之做好準備的更多社會變革的一部分。"
當討論一個具體例子——數據科學團隊從75人減少到1人時,哈薩比斯的回應展現了對技術影響的複雜理解。他認為AI工具將釋放更多的創業和創新機會:"我認為這些工具將釋放創造事物的能力,速度比以前快得多。所以我認為會有更多人做初創企業。"
AI工具降低了創業門檻,使得更多的想法變得可行。"有更多的表面積可以攻擊和嘗試這些工具,這在以前是不可能的。"這可能導致更多小團隊的出現,而不是大型團隊的集中化。
編程領域展現了這種變化的典型模式。最優秀的程序員從AI工具中獲得了差異化價值,因為他們仍然知道如何提出正確的問題、架構整個代碼庫和檢查代碼的正確性。同時,在業餘愛好者層面,AI工具讓非技術人員能夠創建原型、遊戲、網站或電影創意。
這種變化可能改變技能重要性的排序。"然後回到教育問題,哪些技能現在變得重要,可能是不同的技能,比如創造力、某種願景和設計敏感性可能變得越來越重要。"創造性和概念性技能可能變得比純粹的執行技能更有價值。
當被問及DeepMind是否會在明年僱傭同樣多的工程師時,哈薩比斯的回答是肯定的:"我認為是的。沒有計劃僱傭更少的人。"但他也承認這取決於編程智能體的發展速度,"今天它們不能自己做事。它們需要——它們只是對最好的人類程序員有幫助。"
十六、人文價值的永恆性:藝術、創造與人類連接
隨著AI在越來越多領域展現出卓越能力,一個根本性問題浮現:什麼使人類創造的作品獨特且不可替代?哈薩比斯通過自己的早期經歷提供了深刻的洞察。
回顧與西洋棋的關係,哈薩比斯分享了一個重要的類比。作為年輕時的職業棋手,他曾代表英格蘭青年隊參賽,西洋棋幾乎成為他的第一職業選擇。然後Deep Blue出現了,"顯然,電腦將永遠比世界冠軍強大得多。"
但這種技術超越並沒有消除人們對西洋棋的興趣。"但是的,我仍然喜歡下棋。人們仍然會下棋。它是不同的,但這有點像我們可以慶祝尤塞恩·博爾特以令人難以置信的速度跑100米,但我們有汽車,但我們不在乎,對吧?"
這個類比揭示了一個重要原理:人們感興趣的是其他人類的成就。技術能力的超越並不會削弱人類成就的價值,因為我們欣賞的是人類克服限制、發揮潛能的過程。
在創作領域,這種原理同樣適用。哈薩比斯以小說為例:"即使AI有一天可能寫出技術上不錯的小說,但我認為如果你知道它是由AI寫的,它不會與讀者有同樣的靈魂或連接,至少據我目前所見。"
人類創作的價值不僅在於最終作品,更在於創作過程中蘊含的人類經驗和情感。這一點在視覺藝術中體現得尤其明顯。
DeepMind在VEO3等生成工具的開發中深刻認識到這一點,因此與頂級藝術家如達倫·阿羅諾夫斯基(Darren Aronofsky)和音樂家Shankar合作。"我完全同意。我認為這些是工具,它們可以產生技術上好的東西。"
哈薩比斯用梵谷的例子說明了人類藝術的獨特價值:"當我看到梵谷或羅斯科(下圖)的作品時,為什麼它會觸動你的靈魂,讓你脊背發涼?因為我記住了他們經歷的事情,創造那幅作品的掙扎,在梵谷的每一筆中都有他的痛苦。"
藝術作品的力量來自於創作者的人生經歷和情感投入,這種"痛苦"和"鬥爭"賦予了作品無法複製的深度。"即使AI模仿了這一點,如果你被告知這是AI創作的,那意味著什麼?"
這種理解指導了DeepMind在創意AI工具開發中的哲學:"這就是為什麼我們製作所有工具,VEO等,都與頂級創意藝術家合作。"AI工具被定位為增強人類創造力的手段,而不是替代人類創作者。
即使VEO3能夠生成技術上令人印象深刻的影片內容,如達倫·阿羅諾夫斯基所說,它缺乏深層的敘事能力,"它沒有深層敘事,像大師級電影製作人或大師級小說家在遊戲頂端所做的那樣。"
這種限制可能是永久性的。"它可能永遠不會做到,它總是會感覺缺少什麼。是作品的某種靈魂,你知道,真正的人性,偉大藝術作品的魔力。"真正偉大的藝術作品具有一種無法被算法複製的"魔力"。
十七、宗教思辨的復歸:技術進步中的精神追求
在討論AI對社會的深遠影響時,一個意想不到的話題浮現:宗教和精神思考在AGI時代的作用。據報道,新任教皇對AGI表現出了興趣,這引發了關於技術進步是否會帶來宗教復興或精神追求復歸的討論。
哈薩比斯分享了他與梵蒂岡的互動經歷,揭示了宗教機構對AI技術的早期關注。"我確實與上一任教皇就此事進行了交談,梵蒂岡一直很感興趣。甚至在這位教皇之前,還沒有與他交談過,但就這些問題。"
梵蒂岡對AI和宗教、技術的交互早有思考,這種興趣可以追溯到十多年前。哈薩比斯發現天主教會的一個獨特特徵:"天主教會有趣的是,作為一個宗教團體,他們總是有一個科學分支,這很奇怪,他們喜歡說伽利略是創始人。"
作為羅馬教皇科學院成員,哈薩比斯強調這個機構的獨特性質:"這很有趣,像史蒂芬·霍金這樣的人和無神論者都是學院的一部分。這部分是我同意加入的原因,因為它是一個完全科學的機構。"這種科學與宗教的分離讓不同信仰背景的學者能夠在科學框架內協作。
梵蒂岡對AI的興趣不是突然產生的,而是長期關注的結果。"有趣的是,我很著迷,他們對此感興趣已經10多年了。所以他們在這方面很早,就像從哲學角度來看這項技術將有多有趣。"
哈薩比斯認為這種哲學和神學視角對AI發展具有重要價值。"我實際上認為我們需要更多來自哲學家的這種思考和工作,實際上神學家也會非常非常好。"這種跨學科的對話可能為AI發展提供重要的倫理和哲學指導。
他對新教皇的潛在興趣表示歡迎:"所以我希望新教皇真的感興趣。"這種興趣可能預示著宗教機構在AI治理和倫理框架制定中發揮更積極的作用。
當被問及是否認為AGI時代會出現宗教復興時,哈薩比斯給出了開放性的回答:"這可能是這種情況。"當技術迫使人們重新思考生命意義和人類價值時,精神追求可能會變得更加重要。
這種可能性反映了人類面對重大技術變革時的根本需求:在快速變化的世界中尋找穩定的價值錨點和意義來源。宗教和哲學傳統可能為人們在AI時代保持人性和目標感提供重要資源。
十八、後AGI社會的生存哲學:最壞的時代與最好的選擇
訪談接近尾聲時,主持人提出了一個發人深省的問題,這個問題來自經濟學家泰勒·考恩(Tyler Cowen)對Anthropic的傑克·克拉克的提問:"在正在進行的AI革命中,哪個年齡段的人境遇最糟糕?"
這個問題觸及了一個深層的社會焦慮:不同年齡段的人將如何面對AI帶來的巨大變革。年輕人擔心傳統職業道路的消失,中年人憂慮現有技能的過時,老年人則可能感到被時代拋棄。
哈薩比斯的回答展現了基於技術樂觀主義的生命哲學:"我認為任何能夠活著看到它的年齡都是好年齡,因為我認為我們將在醫學等方面取得一些重大進展。"
這種觀點將AGI時代重新框定為人類歷史上的一個獨特機遇期。雖然變化帶來不確定性和挑戰,但能夠親身經歷這種歷史性轉變本身就是一種特權。哈薩比斯相信AI在醫學領域的突破將顯著延長和改善人類生活。
但他也坦率承認未來的不可預測性:"我們都不知道它將如何準確地發生。很難說,但發現將非常有趣。"這種承認體現了對未來既期待又敬畏的態度。
當主持人半開玩笑地建議"儘量年輕一些"時,哈薩比斯回應:"年輕總是更好的。是的,我是說,一般來說,年輕總是更好。這很明顯。"這種輕鬆的回應掩蓋了一個深刻的觀點:在快速變化的時代,適應能力和學習能力確實可能比經驗積累更重要。
年輕人具有的適應性、學習速度和對新技術的天然親和力,可能讓他們在AI時代具有獨特優勢。但這也並不意味著其他年齡段的人沒有價值——經驗、判斷力和智慧在任何時代都是寶貴的資產。反正正反話都給說了……
而最終,哈薩比斯的回答傳達的資訊是:與其擔心處於"錯誤"的年齡段,不如專注於如何充分利用AI技術帶來的機遇。我理解哈薩比斯這種生存哲學的意思是:不是消極的接受,而是積極的參與。因為在歷史的轉折點上,每個人都有機會成為變革的參與者,而不僅僅是被動的觀察者。