那個站在 LLM 風口上唱反調的倔老頭,可能離開 Meta 了。
矽谷大佬出走創業,三天兩頭就有一樁,但要出走的 Yann LeCun 不一樣,他是能讓祖克柏親自登門的重量級人物,是深度學習三巨頭之一,圖靈獎得主,Meta AI Research 的開山祖師。
更重要的是,他這些年一直在干一件特別擰巴的事:站在全世界最熱鬧的 LLM 路線門口,舉著牌子說「這幫人走錯路了」。

現在《金融時報》傳出他要離職,說他在籌備自己的初創公司,已經開始接觸投資人了。注意,目前只是風聲,言之鑿鑿地說 LeCun 已經離職創業,這顯然是不嚴謹的。
只是,截至發稿前,面對鋪天蓋地的報道,Yann LeCun 本人還沒吭聲,這沉默本身,就很說明問題。
從三顧茅廬到分道揚鑣,這十二年到底發生了什麼?
2013 年那場豪賭,祖克柏賭對了嗎?
Lecun 與 Meta 故事得從 2013 年說起。
那段時間,正是深度學習蓬勃興起的階段。2012 年,Geoffrey Hinton 與其學生 Alex Krizhevsky、Ilya Sutskever 提交的 AlexNet 在 ILSVRC-2012 一騎絕塵,top-5 錯誤率約 15.3%,這個突破讓整個學術界和工業界都看到了神經網路的潛力。
然後就是科技巨頭們的搶人大戰——谷歌花大價錢收購了 Hinton 所在的創業公司 DNNresearch,順帶把老爺子本人也挖走了;微軟研究院也在瘋狂擴張 AI 團隊。

祖克柏坐不住了。
Facebook(現為 Meta)當時正在從 PC 網際網路往移動網際網路轉型,新聞推送算法、照片識別、內容審核,哪哪兒都需要技術。
但問題是,Facebook 的 AI 能力跟谷歌、微軟根本不在一個量級。祖克柏需要一個能撐起門面的人物,最好是那種在學術界有足夠分量、能吸引頂尖人才加盟的大牛。
他盯上了 Yann LeCun。
LeCun 當時在紐約大學當教授,已經幹了十多年。那時的 Lecun 自然不是什麼新人,早在 1989 年,他就在貝爾實驗室搞出了卷積神經網路 (CNN),用來識別手寫數字,這後來也成了電腦視覺的基石。

但那個年代深度學習不受待見,LeCun 就這麼冷板凳坐了許久,眼睜睜看著自己的研究被邊緣化。直到 2012 年,Hinton 用深度學習拿下 ImageNet 冠軍,證明了神經網路這條路走得通。
LeCun 憋了的那口氣,終於能吐出來了。
後續,祖克柏親自登門拜訪。具體談了什麼外人不知道,但最後開出的條件足夠誘人:
第一,給錢,主打一個資源自由;第二,給自由,LeCun 可以保留紐約大學的教授身份,繼續教書搞研究;第三,給權,讓他參與建立 Facebook AI 研究院,怎麼招人、做什麼方向,全由他說了算。
這對一個憋屈了多年的學者來說,簡直是夢寐以求的機會。
2013 年末,LeCun 正式加入 Facebook,出任新成立的 Facebook AI Research(FAIR) 實驗室負責人。

他在紐約、門洛帕克和倫敦三地建起了 FAIR 實驗室,自己常駐紐約辦公室。
團隊最初規模較小,但個個都是從頂尖高校和研究機構挖來的——LeCun 的號召力在這時候體現出來了,但凡是做深度學習的,沒人不知道「卷積神經網路之父」這個名號。
祖克柏給了資源,LeCun 也拿出了成果。
加入 Facebook 這些年,LeCun 幹的事情可以分成三條線:一是把深度學習塞進 Facebook 的產品里,二是推動學術界的前沿研究,三是培養下一代 AI 人才。
產品線上,2014 年的 DeepFace 人臉識別系統達到 97.35% 準確率,深度學習優化的推送算法也提升了廣告點擊率。
與此同時,LeCun 自己繼續在學術圈刷存在感:發論文、頂會 keynote、帶學生辦 workshop。直到和 Hinton、Bengio 一起拿圖靈獎, 才算是熬出頭了。

此外,在 LeCun 創建的 FAIR 實驗室,Soumith Chintala 主導開發了 PyTorch 框架並於 2017 年開源,這也是 Meta 至今為數不多的形象招牌。
PyTorch 動態計算圖、Python 原生接口, 調試方便, 學術圈迅速倒戈。這一招等於把全球 AI 研究者都拉進了 Facebook 生態。
不過,或許是冥冥中自有天意,Soumith 前幾天也宣布離職 Meta,表示「不想一輩子做 PyTorch」。
而更重要的是人才培養。FAIR 有個規矩:研究員可以自由發表論文、跟學術界合作、指導外部學生。頂級資源加學術自由的組合,自然吸引了一批頂尖研究人員。
到 2020 年前後,FAIR 已是全球頂尖 AI 研究機構之一, 跟谷歌 DeepMind 並列第一梯隊。祖克柏的那場豪賭, 至少在前七八年就已經得到了不小的回報。
貓比 ChatGPT 聰明?這個圖靈獎得主是認真的
在 ChatGPT 席捲世界初期,Yann Lecun 和祖克柏也有過一段甜蜜期。
2023 年以來,Meta 陸續開源 LLaMA 系列模型,引發業界震動。
OpenAI、谷歌走的是封閉路線,靠 API 賺錢;Meta 卻把模型權重直接扔出來,任人取用。這步棋背後的算盤其實挺清楚:與其讓對手一家獨大,不如用開源贏得開發者生態,讓 LLaMA 成為 AI 界的 Android。
至少在明面上,身居 Meta 首席 AI 科學家一職的 LeCun,是這條路線最堅定的擁護者。
開源 LLaMA 讓 Meta 在大模型競賽中站穩了腳跟,也讓 LeCun 的 AI 理想得到了一定程度的實現——儘管這個實現的方式,恰恰是通過他並不完全認同的 LLM 技術路線。

沒錯,LeCun 一直覺得 LLM 是條死胡同。這才是矛盾的核心。
LeCun 不止一次在公開場合炮轟 LLM 路線,在他看來,LLM 只會根據統計相關性預測下一個詞,根本不理解世界。你問它常識問題,它能給你編出一本正經的瞎話——這叫「幻覺」(hallucination),說白了就是不懂裝懂。
熟悉 LeCun 的人都知道,他最喜歡舉的例子是貓和機器人:
「我們有了會考試聊天的語言模型,但家務機器人在哪裡?哪怕像貓那樣靈巧的機器人都沒有出現。」
「你的貓肯定有一個比任何 AI 系統都更複雜的模型。動物擁有持久記憶的系統,這是目前的 LLM 所不具備的;能夠規劃複雜動作序列的系統,這在今天的 LLM 中是不可能的。」

他算過一筆賬:一個 4 歲小孩通過視覺獲取的資訊量,幾年下來就有 10 的 15 次方字節,遠超 LLM 讀遍網際網路文本。但小孩已經掌握了基本的物理直覺和語言,LLM 耗費這麼多數據,智能仍然很有限。
「光靠餵文本,不可能達到人類水平智能。這條路永遠走不通。」他如此說道。
在當下最火的風口面前,這樣唱反調的言論顯然並不討喜,有人批評他傲慢,有人說他故步自封。甚至 Meta 內部都有聲音認為,正是 LeCun 對 LLM 路線的牴觸,讓公司在大模型競賽中暫時落後。
但 LeCun 不在乎。
他有自己的路線圖:世界模型 (World Model)、聯合嵌入預測架構 (JEPA)等等。這些概念聽起來學術味十足,核心思想其實很直觀——
讓 AI 通過觀察世界來學習,而不是通過閱讀文本來記憶。就像嬰兒成長那樣,先理解重力、因果關係這些物理常識,再逐步建立抽象認知。
他設想的 AI 架構是模塊化的:感知模塊、世界模型模塊、記憶模塊、行動模塊,各司其職。不像 LLM 那樣把所有知識和推理揉在一個巨型網路里,搞得像個什麼都懂但其實什麼都不懂的「書呆子」。

具體來說,世界模型就是讓 AI 在內部學會一個對外部世界的預測模型。就像嬰兒在成長過程中建立起對重力、物體恆存等常識那樣,AI 應該通過觀察世界,形成對物理規律、因果關係的理解。
有了世界模型,AI 就可以在腦海中模擬未來,從而具備計劃行動的能力。
JEPA 則是實現這個世界模型的具體架構。
它採用自監督學習的方法,給 AI 兩個相關的輸入 (比如影片中相鄰的兩幀畫面),模型將這兩個輸入分別編碼到一個抽象的表示空間中,然後訓練一個預測器,根據「上下文」表示去預測「目標」表示。
這種方式避免了直接生成所有細節,而是關注抽象的關鍵因素——更符合人類學習方式。LeCun 曾預言,如果團隊的路線順利推進,三到五年內就會有更好的範式出現,使得現在基於 LLM 的方法過時。
問題是,三到五年,Meta 等得起嗎?
一場猝不及防的重組,FAIR 的黃金時代結束了
當初,LeCun 建立 FAIR 時的承諾是「做長期的、基礎性的 AI 研究」,祖克柏也同意了。
但這個「長期」到底有多長?「基礎研究」到底能給公司帶來多少直接收益?這些問題在早期不是問題,因為深度學習本身就是風口,FAIR 做什麼都有望轉化成產品優勢。
可隨著生成式 AI 開始爆發,競爭也日益激烈,形勢開始發生了變化,尤其是 Llama 4 的失敗也給了祖克柏當頭一棒。祖克柏要的是現在就能用的技術,不是五年後可能有用的理念。
於是,一場猝不及防的重組出現了。
就在今年,Meta 搞了個大動作,成立「超級智能實驗室」,把 FAIR、基礎模型團隊和各應用 AI 團隊統統塞進一個筐里。表面上是整合資源,實際上是一場徹底的權力重組。

這場重組的核心邏輯很明確:讓研究直接服務產品,讓科學家為商業目標讓路。
FAIR 團隊原本「相對不受干擾地開展研究」,現在得跟著產品節奏走,研究方向要服務於個人 AI 助手。此外,Meta 對 FAIR 的研究發表制定了更嚴格的內部審核機制。
研究員在對外發布論文、開源代碼之前,需要經過額外的內部交叉審閱和管理層審批,原因在於 Meta 擔心自己砸錢搞出來的成果被競爭對手白嫖。
LeCun 對這些變化表現出強烈的牴觸。
據多方報道,他在內部激烈反對新的論文審核制度,為維護研究自由據理力爭。The Information 援引知情者的話稱,LeCun 在今年 9 月一度「氣到考慮辭職」以示抗議。

但或許更讓他難以接受的是領導權的旁落。
祖克柏在重組中做了一個大膽的人事任命:從外部挖來 Alexandr Wang,讓他擔任 Meta 的首席 AI 官,直接向 CEO 匯報。
Alexandr Wang 是誰?一個 28 歲的 MIT 輟學生,他創辦的公司 Scale AI 專門做數據標註業務,給各大科技公司的 AI 模型提供訓練數據。
祖克柏看中的,恰恰是 Wang 的產品思維和商業嗅覺。在生成式 AI 的競賽中,Meta 需要的不是象牙塔里的理想主義者,而是能快速把技術轉化為產品的實幹家。
這個任命的震撼在於:LeCun 這個圖靈獎得主、深度學習三巨頭之一、在 Meta 幹了十二年的首席 AI 科學家,在新架構下的話語權被大幅削弱,甚至要向 Wang 匯報。
同時,今年 7 月,祖克柏還任命了年輕有為的趙晟佳為超級智能實驗室的首席 AI 科學家,負責制定新實驗室的研究方向。

有趣的是,LeCun 當時發了個聲明,說自己角色沒變、使命沒變,還期待跟新團隊合作。這求生欲屬實拉滿。但他對於研究方向和領導層重組的分歧,顯然是公開的秘密。
而真正可能成為壓垮駱駝的最後一根稻草的,是最近的裁員。據報道,Meta 近期對 AI 團隊進行了裁員,波及到 FAIR 研究部門以及與產品相關的 AI 團隊,甚至華人大佬田淵棟也因此受到了波及。
裁員的信號很明確:Meta 不再願意為「看不到短期回報」的基礎研究買單了。那些不能直接轉化為產品功能、不能立即提升用戶增長或廣告收入的研究方向,都成了被砍的對象。

FAIR 的黃金時代結束了。
種種因素之下,《金融時報》爆料他在籌備創業,倒也不算意外。
學術大佬出來單幹,最近幾年已經成了矽谷新常態。Hinton 退休後到處演講呼籲 AI 監管,Bengio 也有自己的實驗室和創業項目。LeCun 若是真出去創業,沒準反而是好事。說到底,這事兒沒有誰對誰錯。

LeCun 能夠在 Meta 之外繼續他畢生的事業。
他帶走了那個被 Meta「擱置」的願景,可以放開手腳搞自己的世界模型,用自己的方式證明它是正確的,再也不用跟產品經理扯皮,不用向 28 歲的小老弟匯報。
成了,那就是「我早說過 LLM 是死路」;敗了,頂多被人嘲笑幾句「你看那個老頑固」。
而對於 Meta 來說,祖克柏要給股東講故事,要把最實用的生成式 AI 塞進旗下產品的各個角落,這確實是 CEO 該幹的事。
只是,儘管少了 LeCun 也不會傷筋動骨,但可能會少點不一樣的聲音。
等哪天大家發現 LLM 真的走到瓶頸了,回頭看看當年那個舉著反對牌子的倔老頭說過什麼,或許會覺得別有一番趣味。






