前幾天刷到Stripe播客《Cheeky Pint》的一期節目,Greg Brockman作為嘉賓和John Collison(Stripe聯合創始人兼總裁)的對話資訊量很足。這位OpenAI的聯合創始人兼總裁,同時也是Stripe的第一位工程師,在節目中分享了很多OpenAI的創業細節。
Greg透露了OpenAI是如何"意外"發現規模假說(scaling hypothesis)的。大家都以為OpenAI從一開始就是奔著證明"更大模型=更強能力"這個理論去的,但實際情況完全相反——他們是在做Dota 2 AI項目的時候偶然發現,每當他們把計算資源翻倍,AI的表現就能翻倍提升。這個發現徹底改變了整個AI行業的發展軌跡。
他還談到了OpenAI早期面臨的"生死時刻"——當他們必須從GPT-3做出產品卻不知道該做什麼的時候,整個團隊都覺得"完全沒戲"。以及他對AI未來發展的判斷:認為AI會在2-5年內解決千禧年數學難題,能源將成為制約AI發展的最大瓶頸。
Greg Brockman的背景相當有意思:1987年出生於北達科他州,數學天賦極高,曾獲得2006年國際化學奧林匹克銀牌。從哈佛退學後轉入MIT,但很快又離開去了Stripe,從第4號員工做到CTO,幫助公司從4人團隊發展到250人規模。2015年,他離開Stripe與山姆·阿特曼(Sam Altman)等人聯合創立了OpenAI。
相比較於奧特曼,Greg對外亮相不多。但Greg Brockman在OpenAI內部爭議中也扮演了複雜且關鍵的角色。作為聯合創始人和總裁,他在公司發展初期組建了頂尖團隊,並奠定了OpenAI的基礎架構和模型訓練框架,但他的管理風格引發了內部摩擦。具體表現為他傾向於在項目的最後階段要求變更長遠計劃,導致團隊衝突頻發,影響了士氣,多位高管曾介入調解。
此外,他以「solo coder」著稱,喜歡獨自推動關鍵功能開發,如GPT-3 API和ChatGPT插件,這種做法雖推動了產品創新,卻也被認為缺乏團隊協作,甚至引發部分核心研究人員離開。
在OpenAI宮斗事件中,2023年11月,OpenAI董事會突然解僱了CEO Sam Altman,隨後也宣布暫時將Brockman從董事會除名,但保留其總裁職位。對此,Brockman表示震驚和遺憾,並宣布辭職,稱「基於今天的消息,我決定退出」。隨後Brockman短暫加入微軟領導AI研究團隊,但在Altman復職後回歸OpenAI。總之,兩個人是鐵桿盟友。
"1. 規模假說的意外發現:從Dota遊戲中學到的AI真諦"
最近業界討論最多的規模(Scaling Law)假說問題,Greg的經歷和大家想的不太一樣。
很多人以為OpenAI從一開始就是為了證明"規模假說"——也就是說,只要不斷增加計算資源、數據和模型參數,AI就能變得越來越聰明。但Greg透露,實際情況完全相反,規模假說是他們在做項目時"撞上"的。
故事要從2017年的Dota 2項目說起。Dota 2是一款極其複雜的5v5實時策略遊戲,需要團隊協作、長期規劃和在不完整資訊下做決策。當時他們只是想用這個遊戲來測試AI的能力邊界。
"我們從16個CPU核心開始訓練一個小AI," Greg回憶道,"然後Jacob和Shimon把訓練規模擴大到32個核心,結果性能直接翻倍了。"
更神奇的是後面的發展:每周Greg回到辦公室,都發現團隊把訓練規模又擴大了2倍,而AI的表現也相應提升了2倍。這種驚人的線性關係一直持續下去,從來沒有出現性能平台期。
"我們不斷地問,這東西到底什麼時候會到頭?但它就是沒有到頭," Greg說。這個發現讓他們意識到,可能找到了AI發展的一個基本規律。
規模假說為什麼重要?簡單來說,它意味著只要有足夠的計算資源,現有的深度學習方法就能一路"暴力"推進到人類級別的通用人工智慧。這徹底改變了AI研究的方向——從追求巧妙的算法轉向追求更大的規模。
從這個角度看,OpenAI的成功更像是"聽數據說話"的結果,而不是什麼天才的戰略規劃。就像很多創業公司一樣,你有個不錯的初始想法,然後跟著有效的信號一路走下去。
"2. 管理AI項目和傳統項目完全不同:Dota教會我們的管理課"
管理AI項目和傳統項目完全不同的道理,Greg在Dota項目上吃了個大虧才弄明白這點。
剛開始的時候,Greg按照傳統軟體項目的方式管理:制定明確的里程碑,比如"這個日期我們要打敗這個水平的玩家,那個日期要打敗那個水平的玩家"。
結果第一個里程碑來了——徹底失敗。
"你會發現,在AI項目中,你根本無法控制結果," Greg總結道,"你不能設置基於結果的里程碑。"
正確的做法是控制輸入:我們要在這個日期前嘗試這些實驗,在那個日期前實現這個功能。這些是你能控制的,至於AI最終能達到什麼水平,那要看訓練結果。
Dota項目後來的發展簡直像寫好的劇本一樣精彩:他們先是在內部測試中打敗了最好的員工,然後挑戰半職業選手時一直被吊打,但突然間AI開始變強。
最戲劇性的時刻發生在國際邀請賽上。第一天他們連勝三場,第三場2-1險勝時團隊還在擔心:"完了,我們輸了一局。"
原來對手用了一個他們從未訓練過的道具。怎麼辦?只能熬夜改訓練數據。
凌晨4點,新版本終於開始訓練。周三要對戰世界第一和第二的選手,他們的半職業測試員試了新AI後說:"這個機器人完全壞了。"團隊以為出了重大bug。
結果發現AI學會了"誘敵深入"的策略——看起來在送死,實際是在引誘對手進入陷阱。他們把兩個版本的AI拼接起來,創造出了一個"無敵"的AI,最終擊敗了世界冠軍。
"這就是深度學習的精髓," Greg說,"你無法控制它要去哪裡,但你可以控制所有的輸入。只要評估體系對了,就能創造真正的魔法。"
這種"過程導向"而非"結果導向"的管理哲學,後來成為了OpenAI管理大型AI項目的核心原則。
"3. 做API還是做產品:那個讓整個團隊感到絕望的決定"
很多創業者關心的產品化問題,Greg提到了一個特別顛覆的點。
當GPT-3訓練完成後,OpenAI面臨一個生死攸關的選擇:這個強大的AI到底應該變成什麼產品?
他們列出了100多個可能的應用方向:醫療診斷、法律諮詢、教育輔導...每個方向都意味著要僱傭專業人士,要了解特定行業,要做垂直化深耕。
"你會發現,一旦選擇了具體應用,就放棄了AGI(通用人工智慧)中的'G'," Greg說,"變成了做特定領域的專業工具。"
最後有人提出了一個"瘋狂"的想法:為什麼不直接做API,讓開發者自己去找應用場景?
"這完全違背了創業的基本原則," Greg坦言,"你應該先有要解決的問題,我們卻不知道問題是什麼。"
這個決定讓Greg感到了前所未有的絕望。作為一個技術創業者,他的每個直覺都在說這條路行不通。
"我記得有人說,'我想像不出誰會為這個模型的API付費',我當時想,'你說得對,我自己也想像不出來'," Greg回憶道。
關鍵問題是:他們不知道自己是"在閾值之上"還是"在閾值之下"。AI能力是否已經強到能創造真正的價值?還是只能做一些有趣但無用的演示?
他們把GPT-3展示給很多人,大家都覺得有趣,但遠沒到"我要基於這個建公司"的程度。
第一個付費客戶是AI Dungeon——一個文本冒險遊戲。這讓他們一度以為"OpenAI的未來在遊戲業"。
"GPT-3當時更像是世界上最好的演示機器," Greg說,"很多酷炫的應用,但要做到商業級別的可靠性太難了。"
直到GPT-4和更好的後訓練技術出現,開發者才真正能基於這些API構建可靠的商業應用。
這個"先有技術,再找應用"的逆向創業模式,雖然違背了所有創業教科書,但最終證明了技術足夠強大時,市場會自己找到出路。
"4. AI醫療診斷的意外突破:超越WebMD的低門檻奇蹟"
說到醫療應用這個話題,Greg講了個很生動的例子。
Greg原本以為醫療會是AI最難突破的領域之一——畢竟涉及生命安全,監管嚴格,專業門檻極高。但現實完全出乎意料。
"門檻實際上很低,你只需要超越WebMD就行了," Greg笑著說。
他分享了家庭使用AI進行醫療諮詢的經歷。Greg的家人通過與AI深度對話,獲得了比傳統醫療諮詢更有價值的診斷建議。類似的,John Collison也提到他們家甚至用AI成功"診斷"並治好了家裡的貓。
背後的原因很現實:醫生給你的時間太有限了。傳統醫療諮詢往往只有幾分鐘,醫生無法深入了解你的具體情況。而AI可以不厭其煩地詢問細節,分析症狀,提供個性化建議。
類似的"低門檻突破"還出現在很多領域:
生活教練和諮詢領域正在快速興起。很多人把AI當作心理諮詢師或人生導師,獲得個性化的建議和情感支持。
教育領域的變化更明顯。已經有研究證明,學生通過AI輔導能學得更好。這實現了教育學家Ben Bloom提出的"兩西格瑪效應"——個性化一對一輔導比傳統班級教學效果好兩個標準差。
"Sal Khan看到GPT-4的時候說,'這就是我一直在找的東西,我們需要變成一個GPT-4應用'," Greg回憶Khan Academy創始人的反應。
編程領域就更不用說了。AI編程助手已經成為大多數程序員的標配工具。
Greg預測,我們正在走向一個分水嶺:就像沒有電腦你很難做生產性工作一樣,沒有AI訪問權限也會嚴重影響工作效率。
這些"意外突破"的共同特點是:AI不需要完美,只需要比現有解決方案稍微好一點點。醫療診斷不需要比最好的專家強,只要比WebMD靠譜就有巨大價值。
"5. 作業系統限制與AI產品的現實困境"
現在AI產品開發面臨的最大瓶頸,Greg認為主要是作業系統層面的限制。
Greg舉了個特別生動的例子:"我經常在用手機的時候想要一個按鈕,就是'嘿ChatGPT,你怎麼看這個?'需要你的事實核查,需要你的解釋。"
但現實是什麼?你得截屏,打開ChatGPT,點擊上傳圖片..."感覺像回到了1993年,而不是有個按鈕直接問'嘿ChatGPT,你覺得這個怎麼樣?'"
問題是OpenAI沒有權限去構建這樣的集成體驗。這需要手機廠商、作業系統提供商的配合。
但Greg的觀點很有啟發性:他認為這是能力與便利性的問題。
"如果能力足夠強,你願意接受任何不便," Greg說,"比如,如果截屏給ChatGPT能教你如何構建Stripe這樣的公司,就算你要爬到山頂去問,你也會去做。"
關鍵是便利性會跟上來的。一旦用戶發現某個工作流程有巨大價值,就會有巨大的壓力推動各方降低使用門檻——手機廠商、作業系統開發商、應用開發者都會感受到這種壓力。
回顧歷史,OpenAI在2022年發布過ChatGPT插件系統,試圖讓任何人都能為ChatGPT編寫應用。但當時模型能力不夠,限制很多(一次只能用3個插件),可靠性也不行。
現在的MCP(Model Context Protocol)本質上是同一個想法的升級版——讓AI能夠連接各種工具和數據源。區別是現在的模型能力已經能夠支撐這種複雜的集成了。
Greg的判斷是,大概有6個月的滯後期:一旦模型能力達到閾值,各種集成方案就會快速出現。
"我們會得到承諾的未來,只是需要一些時間," Greg說,"真正要做的是繼續使用AI,發現那些有價值的工作流程。"
這其實反映了一個更深層的問題:AI發展速度太快,整個生態系統都在追趕。不是技術不夠強,而是基礎設施和用戶體驗需要時間適應。
"6. 數學突破的時間表:AI何時解決千禧年難題"
很多人質疑AI的批評,Greg的回答挺顛覆常規思維的。
"AI很有用,但還沒有在數學或科學上做出任何新穎的突破," 這是業界常聽到的批評聲音。
Greg的回答很直接:"等著看就行了。"
當被問到是否認為AI能解決千禧年數學難題時,Greg毫不猶豫地說:"當然可以,毫無疑問。"
時間表呢?"我認為是2到5年。"
這個判斷基於什麼?Greg認為關鍵在於計算規模。
他提到了最近訪問德克薩斯州阿比林數據中心的經歷——那裡正在建設與Oracle合作的大型數據中心。"想像一下,把整個數據中心的算力都用來思考一個問題," Greg說,"比如解決一個千禧年難題,或者攻克某種特定癌症。"
"再加上實驗室設備、機器人濕實驗室、各種現實世界的工具,這種計算能力配合實驗和學習的能力,將是世界前所未見的。"
這反映了Greg對AI發展階段的理解。他們最近開始談論"AI能力的五個等級":
"1. 聊天機器人階段"2. 推理者階段"3. 智能體階段"4. 創新者階段"5. 組織階段
目前我們處於第三階段,即將進入第四階段"創新者"。這個階段的AI將能夠進行真正的創新和發現。
Greg強調,我們還沒有在這些問題上投入真正"尊重"級別的計算資源。現在的AI模型雖然強大,但用在科學研究上的計算力相對於未來的可能性來說還是"小電腦"。
"一旦你能解決千禧年難題,那麼很多其他事情也就能做到了," Greg說。這設定了一個很高的標準,但達到這個標準後,AI在其他領域的能力也會實現質的飛躍。
這個預測很大膽,但考慮到AI發展的指數級速度,也並非不可能。關鍵是要有足夠的計算資源和正確的方法來應用這些資源。
"7. 能源瓶頸:AI發展的現實天花板"
算力規模的持續擴張最終會撞上什麼牆?Greg認為答案很明確:能源。
"它應該是能源," Greg說,"真正應該是把能源轉化為智能,這成為你唯一的瓶頸。"
這聽起來很理想,但現實要複雜得多。問題在於能源基礎設施的建設遠沒有矽谷科技那麼容易實現指數級增長。
"過去幾年的指數級增長主要發生在科技、矽谷空間,在那裡實現指數級增長相對容易。但在許可證申請、房地產開發、修建水壩、建設核電站方面,很難實現指數級增長。"
數據很說明問題:現在上線的大量新能源都是為數據中心服務的——這在OpenAI開始訓練GPT-2的時候是不可想像的。
但Greg相對樂觀,他相信市場機制最終會解決這個問題:"我觀察到的市場規律是,資本主義市場最終會提供解決方案。"
更重要的是,這已經不僅僅是某家公司的問題,而是國家競爭力問題。Greg指出,其他國家正在建設遠超美國的電力基礎設施。"為了讓美國保持競爭力,別無選擇,只能建設。我們必須解決電力問題。"
聚變能源被寄予厚望,但時間線不夠樂觀。大多數行業觀察者認為聚變至少還需要5年時間,這意味著在接下來的5年裡,電力增長仍將是挑戰。
OpenAI正在積極倡導大幅增加電力供應。這不僅僅是技術問題,更是政策和基礎設施問題。
Greg提到了一個"需求海嘯"即將到來。隨著AI能力的提升和應用場景的擴大,對計算資源的需求將呈爆炸式增長。
這其實揭示了一個有趣的轉折:AI的發展瓶頸從軟體、算法問題,轉向了硬體問題,現在又轉向了更基礎的能源和基礎設施問題。每次當一個瓶頸被突破,新的挑戰就會出現在更根本的層面上。
"8. 數據牆的突破:S曲線的無縫切換"
2023年大家都在談論的"數據牆"問題,現在好像沒人討論了,但AI進步也沒有放緩。這是怎麼回事?
Greg的解釋很精闢:"基本上都有一些道理。" 也就是說,數據牆確實存在,但AI研究者找到了新的S曲線來突破它。
這正是Kurzweil對世界的觀察精髓:當一種技術方法達到極限時,你會覺得絕望,覺得"就到這兒了"。但總有辦法找到新的S曲線,新的突破路徑。
具體的突破方向包括:
合成數據:AI生成訓練數據,突破了真實數據的限制。
強化學習方法:本質上是一種數據生產機制,讓AI在自己生成的數據上訓練,學習速度比傳統方法快得多。
更好地利用現有數據:通過改進算法,從同樣的數據中提取更多價值。
"如果你把強化學習範式想像一下,基本上它就是一個數據生產機制," Greg解釋,"AI在自己的數據上訓練,學習非常快速,然後基於這個繼續學習。"
每一種新方法都把AI能力推向了更遠的地方。
這種模式和晶片小型化很像:每一代都有人說"這次真的到頭了,不可能做得更小了",但總有新的工藝被發明出來。
Greg認為,雖然在晶片領域可能確實有物理極限,但"我們從來沒有那麼接近過極限"。
對AI來說,情況可能更樂觀。算法創新、新的訓練方法、更好的數據利用方式...有太多可以探索的方向。
"S曲線會繼續,如果你拉遠看,一切都顯得平滑而不間斷," Greg總結道。
這個觀點很重要,因為它暗示AI的發展可能還遠未到達天花板。每當一個技術路徑接近極限,新的路徑就會出現。這種持續的範式轉換,可能是AI能夠持續快速發展的根本原因。
關鍵是要有足夠的資源和人才來探索這些新的可能性。當前瓶頸突破了,新的瓶頸會出現,但只要保持創新的勢頭,總能找到解決方案。
"9. AI編程的未來:從代碼生成到智能協作"
AI編程現在的發展狀況如何?特別是最近很火的"vibe coding"(所見即所得編程)?
Greg的觀察是,一旦某個AI應用"有點兒管用"了,下一代往往就會非常出色。"這就是我們現在AI編程所處的位置。"
但有個有趣的現象:目前的AI編程工具擅長的是比較有趣的編程部分——寫新代碼、構建新功能,但留下了很多無聊的工作,比如代碼審查、部署、維護等。
"希望我們能在這些其他領域也取得很大進展," Greg說,"最終應該有一個完整的AI同事。"
更激進的設想是,你可以成為團隊的管理者,指揮一群軟體工程AI智能體。你想創建什麼,都可以通過管理這個AI團隊來實現。
但Greg提出了一個顛覆性的問題:"會不會有一天AI成為管理者,給你想法,給你任務?"
這聽起來很反直覺,但想想看:如果AI真的能深度理解你的需求和能力,就像一個理想的AI醫生深度理解你的健康狀況一樣,那為什麼不能成為一個更好的項目管理者?
Greg提到了一個有趣的模式:AI的表現往往在通用場景下不夠好,但在個性化場景下表現優異。
語音識別就是個很好的例子:通用語音識別效果一般,但如果專門識別你的聲音,效果會好很多。
AI編程也類似:在"無上下文"的場景下效果很好(比如基於公開庫快速構建一個應用),在"需要理解百萬行代碼庫"的場景下還有提升空間。
但這種情況正在快速改變。Greg提到Codex(OpenAI的代碼AI工具)已經能夠很好地在大型代碼庫中工作。"它比我更善於找到功能的實現位置," Greg說,"看到它在代碼里四處探索是很酷的體驗。"
企業級的殺手應用可能是重構:把COBOL應用改寫,或者像Facebook把PHP改造為靜態類型的HipHop那樣的大規模代碼遷移。
"重構需要的深度複雜思考實際上不是那麼高,主要是機械性工作量太大," Greg解釋,"這正是AI形狀的問題。"
未來的方向很明確:一個通用的基礎模型,知道越來越多的東西,再加上針對你的組織的個性化,連接到你的代碼、上下文和歷史。
"10. OpenAI的產品決策哲學:從Disney模式到技術驅動"
OpenAI如何決定開發哪些產品,Greg提到了一個很有意思的思路轉變。
剛開始推出ChatGPT時,OpenAI內部其實挺恐慌的:"我們既做企業業務,又做消費者業務。作為一個初創公司,這感覺很可怕。"
Greg記得一個董事會成員說:"感覺你們的策略很不聚焦,在做所有不同的事情。"
後來他們想明白了,更好的類比是Disney:"你製作一個核心資產,比如《小美人魚》,然後以各種不同方式將其產品化——遊樂設施、飯盒、T恤。"
OpenAI的模式類似:核心模型是資產,然後考慮哪些應用能夠快速創造大量價值,只需要少量額外工作。
產品選擇的幾個判斷標準:
"1. 讓我們偏離通用路徑的程度有多大"2. 對實現更大目標的重要性如何"3. 與我們正在做的其他事情有多少協同效應
編程是一個明顯的選擇,因為協同效應和投資回報都很明確:"如果我們能加速自己的開發,那就是能加速一切的事情。"
這種"技術優先"的產品策略在傳統創業理論中是被批評的,但Greg認為這反映了AGI公司的特殊性質。
當你的核心資產是一個通用能力強大的AI模型時,幾乎任何垂直應用都是可能的。挑戰不是能不能做,而是選擇做什麼。
這與傳統的"發現痛點,解決問題"的創業方法完全相反。OpenAI是先有了強大的技術能力,然後尋找最佳的應用場景。
這種模式的優勢是,一旦基礎模型變得更強,所有的應用都會同時受益。劣勢是需要在多個方向上同時投入,資源分散。
但Greg認為,當技術能力是你的核心差異化優勢時,這種分散實際上是一種對沖:你不確定哪個應用會最先爆發,所以在多個有前景的方向上下注。
隨著AI能力的提升,這種"一體多面"的策略可能會成為AI公司的標準模式。關鍵是要有足夠強的核心技術來支撐這種分散化的產品策略。
Three takeaways:
Q: 如果再次預測AGI時間表,Greg會如何修正自己2017年的判斷?
Greg的反思很誠實:AI確實是令人驚訝的。最一致的主題就是我們得到的總是和預期不同的東西,但往往更神奇、更有用。雖然沒有完全實現當年的AGI預測,但OpenAI成功建立了一個目標:每年至少有一個結果感覺比之前的一切都要好一個層級。這種"過程目標"比"結果目標"更可控,也更實際。
Q: 規模假說還能持續多久,下一個技術突破點在哪裡?
能源將成為真正的瓶頸,這實際上是好事——這意味著我們真的到了把能源直接轉化為智能的階段。但突破會來自多個S曲線的組合:合成數據、強化學習、更好的數據利用方式。關鍵是不要被單一技術路徑的局限性所困擾,要保持對新範式的開放性。歷史告訴我們,當一條路走到盡頭時,總會有新的路徑出現。
Q: AI對工作和社會的改變會比我們預期的更快還是更慢?
比想像的更個性化,比想像的更無處不在。AI不會是一個大一統的解決方案,而會是千萬個針對具體場景的個性化助手。就像從沒有電腦很難做生產性工作一樣,沒有AI訪問權限將嚴重影響競爭力。但這種改變可能比技術突破本身更需要時間,因為涉及到基礎設施、法規、社會接受度等多個層面的配套改革。
本文根據2025年6月18日Stripe播客《Cheeky Pint》節目中Greg Brockman與John Collison的對話整理而成,並儘量保持了原始觀點的完整性。