宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

OpenAI CEO 奧特曼:我已經準備好讓ChatGPT看到我的所有數字生活,但是幼兒園不需要AI

2026年03月10日 首頁 » 熱門科技

1月26日,OpenAI舉辦了一場面向開發者的Town Hall,CEO山姆·阿特曼用一個小時回答了十幾個問題。沒有發布新產品,但給出了不少硬資訊:2027年底GPT 5.2級別智能降本100倍;OpenAI將"大幅放慢招聘增速";GPT-5的寫作能力"我們搞砸了";如果今年AI出大問題,"生物可能是一個合理的賭注"。

OpenAICEO奧特曼我已經準備好讓ChatGPT看到我的所有數字生活但是幼兒園不需要AI

OpenAI在2025年其實是有點逆風的。雖然搞了星際之門,但是總體風頭被搶了不少。無論是Anthropic的Skills,還是Google Gemini的文生圖,都讓GPT的存在感大幅度減弱,內部據說也發了"Code Red"備忘錄,紅色警報吧。

也是因為這個原因,就整理了這期內容。當然,線上已經有很多類似內容了,但是我看了一下,要麼翻譯不夠精緻,要麼一些背景缺失,還是值得在花點力氣再搞搞。(當然,也不能保證沒錯誤)

訪談中,山姆·阿特曼說他第一次用Codex(OpenAI的AI編程助手,可以在用戶電腦上自主執行代碼任務)的時候,信誓旦旦"絕不會給這個東西完全訪問我電腦的權限"。然後他堅持了兩個小時。"我就打開一小會兒看看會發生什麼,然後就再也沒關掉過。"他還說自己"已經準備好讓ChatGPT看到我的整個電腦和整個網際網路",不舒服感已經消失了。

但被問到幼兒園是否需要AI時,他的回答是:不僅不需要AI,連電腦都不應該有。"幼兒園的孩子應該在外面跑來跑去,玩實物,學習如何與彼此互動。"

其實,我好久沒發奧特曼的內容了,所以這次,我就不寫成Blog了,是完整的內容。

OpenAICEO奧特曼我已經準備好讓ChatGPT看到我的所有數字生活但是幼兒園不需要AI

Part 1:AI對軟體工程的影響

核心觀點: 軟體工程師不會消失,但"工程師"的定義將徹底改變。更多人將參與軟體創造,但他們花在寫代碼、調試上的時間會大幅減少。GTM(市場推廣)仍是最大瓶頸——AI讓構建變容易了,但讓人關心你的產品依然很難。

Jevons悖論(傑文斯悖論)與軟體工程師的未來

問: 您如何看待軟體工程領域的Jevons悖論(19世紀經濟學家William Jevons提出:當技術進步提高資源使用效率時,該資源的消耗量反而可能增加而非減少)?如果AI讓代碼的創建變得更快、更便宜,那是會減少對軟體工程師的需求,還是會因為定製軟體成本大幅降低而大規模增加需求,讓工程師們在未來幾十年都有工作?

山姆·阿特曼: 我認為"工程師"的定義將發生重大變化。會有更多的人創造更多的價值、獲取更多的價值——他們的工作是讓電腦按自己的意願運行,讓電腦為他人創造有用的體驗。但這份工作的具體形態,以及你花在寫代碼、調試代碼上的時間,都會發生很大變化。

這種變化在工程領域已經發生過很多次了。每一次變革之後,至少到目前為止,都有更多人能夠參與進來並變得高效,世界上也有了更多的軟體。對軟體的需求似乎完全沒有放緩的跡象。

我對未來的判斷是:我們中的很多人將使用專門為一個人或極少數人編寫的軟體,而且我們會不斷定製自己的軟體。所以會有更多人讓電腦做他們想做的事,但方式與今天大不相同。如果你把這算作軟體工程,那麼我認為我們會看到更多這樣的工作。而且我相信,世界GDP中更大的比例將以這種方式創造和消費。

GTM(Go-to-Market)仍是最大瓶頸

問: 作為消費者,我重度使用ChatGPT。我在Reddit上看到大家用Codex、Lovable、Cursor等工具構建各種東西。但似乎新的問題是GTM(市場推廣)——我能構建這些東西,但如何找到能從中獲得價值的人?這似乎成了瓶頸。

山姆·阿特曼: 在這之前,我曾運營Y Combinator(矽谷最具影響力的創業孵化器,投資過Airbnb、Dropbox、Stripe等公司),從創業者那裡一直能聽到一個一致的說法:我以為最難的部分是構建產品,但其實最難的是讓任何人關心、使用它,或者建立連接。

我認為這一直都非常困難。只是現在構建變得如此容易,你會更強烈地感受到這個差距。

對此我沒有簡單的答案。我認為創建一家企業、找出差異化價值、讓市場推廣運轉起來,這些古老的規則依然適用。AI讓創建軟體變得更容易,並不意味著其他事情也變得更容易。

不過我們開始看到,就像AI已經轉變了軟體工程一樣,人們現在也在用它來自動化銷售、自動化營銷,而且會有一些成功案例。但我認為這將永遠是困難的,因為即使在一個充裕的世界裡,人類的注意力仍然是非常有限的資源。你將永遠與其他人競爭,他們也在努力建立自己的市場推廣能力和分銷渠道。每一個潛在客戶都很忙,還有其他事情要做。

所以我預期這會很難,你需要想出有創意的點子,構建出色的東西。

Part 2:Agent Builder與多智能體編排

核心觀點: OpenAI不會壟斷Agent界面的定義。正確的界面是什麼、人們想怎麼用,我們都不知道。模型能力與用戶能獲取的價值之間存在巨大且不斷擴大的鴻溝——這是一個巨大的創業機會。

開發者在Agent編排領域是否安全?

問: 我是一名獨立開發者,正在Codex SDK(OpenAI提供的編程接口,允許開發者在自己的產品中集成Codex能力)上構建一種編排多個Agent的方式。我想問一下你們Agent Builder工具的產品願景。目前它主要是工作流和提示鏈。作為在Codex SDK上構建的開發者,我安全嗎?你們是否會在多Agent編排方面留出空間,還是OpenAI會全部自己做?

山姆·阿特曼: 我們不知道什麼是正確的界面。我們不知道人們會想如何使用它。我們見過人們構建出令人難以置信的多Agent設置,也見過人們構建出非常出色的單線程交互式對話。我們不會獨自解決這個問題。

而且,不是每個人都想要同樣的東西。有些人喜歡像老電影裡那樣坐在30塊螢幕前,看著各種複雜的東西,到處移動;也有人想要在語音模式下進行非常平靜的對話,每小時只對電腦說一次話,讓電腦處理很多事情,而不是不斷監督大量Agent。

人們只能嘗試不同的方法,看看自己喜歡什麼。世界可能會收斂到幾種方式,但我們不會找出所有答案。

我認為構建工具來幫助人們高效使用極其強大的模型是一個非常好的想法。這是目前完全缺失的。這些模型能做的事情與大多數人能從中獲取的東西之間的差距是巨大的,而且還在增長。 一定會有人構建工具來真正幫助你做到這一點。目前還沒有人做對。我們也會嘗試自己的版本,但這是一個似乎有很大空間的領域,人們會有不同的偏好。

如果你們有想讓我們構建的東西,請告訴我們,我們可以試試。

Part 3:AI的經濟與社會影響

核心觀點: AI將帶來大規模通縮。到今年年底,100-1000美元的推理成本+一個好想法,就能創造出去年需要一個團隊花一年才能完成的軟體。這應該是一種社會均衡力量——但如果政策搞砸,AI也可能集中權力和財富。

AI將帶來大規模通縮

問: 目前由於工資差距,女性大約會損失100萬美元的收入。我很好奇您認為AI如何能用來解決存在了幾十年的經濟差距?

山姆·阿特曼: 好消息是,雖然有很多複雜的問題,但有一點我認為基本上是好消息:AI將帶來大規模通縮。

我在這個問題上有過反覆。你可以想像一些奇怪的情況,比如世界上所有的錢都流入自我複製的數據中心。但從整體來看,考慮到你在電腦前可以做的工作已經取得的進展,以及機器人技術和其他領域即將發生的事情,我們將在經濟中面臨大規模的通縮壓力。

我說"基本上是好消息",是因為在這個過程中會有一些複雜的事情需要應對。但除了那些由於社會或政府政策阻止的領域——比如在舊金山建造更多房屋——我預期這種變化會相當強烈且相當迅速。

個人能力的提升看起來會越來越高,無論社會是否以一種讓他們自然擁有所有優勢的方式來構建。我仍然很難理解這一點:到今年年底,花100或1000美元的推理成本,加上一個好想法,你將能夠創建一個軟體,這個軟體在去年這個時候需要一整個團隊花一年時間才能完成。

這種經濟變化的規模,至少對我來說,很難理解。這應該是對人們非常賦能的事情——大規模增加的豐富性和獲取途徑,以及大幅降低的創造成本來做新事情、新公司、發現新科學等等。

我認為這應該是社會的一種均衡力量,是那些沒有得到公平對待的人獲得真正好機會的方式——只要我們不在政策上嚴重搞砸,而這是可能發生的。

我確實擔心存在一些可能性,AI會真正集中權力和財富,防止這種情況發生應該成為政策的主要目標之一。

模型能力:通用化 vs 專業化

問: 您如何看待模型的專業化與通用化?GPT 4.5是第一個我認為真正擅長寫作的模型。但最近有很多關於GPT-5在ChatGPT中寫作變得有點難以閱讀的討論。而GPT-5顯然是更好的Agent模型,工具使用、中間推理都很出色。感覺模型變得更加偏科了——編碼能力飆升,但寫作卻退步了。

山姆·阿特曼: 我認為我們只是搞砸了那個。我們會讓未來版本的GPT 5.x在寫作方面比4.5好得多。

我們確實決定——我認為有充分的理由——在5.2中把大部分精力放在讓它在智能、推理、編碼、工程方面超級出色。我們精力有限,有時候專注於一件事就會忽略另一件事。

但我相信未來主要是關於非常好的通用模型。即使你試圖做一個在編碼方面真正出色的模型,如果它寫作也很好,那不是更好嗎?如果你試圖讓它能夠為你生成完整的應用程序,你希望裡面有好的文案。當它與你互動時,你希望它聰明、有洞察力、表達清晰。

所以我希望我們能在所有這些維度上推動未來模型變得非常好,我相信我們會做到。智能的通用性很強,我們可以讓單一模型在所有這些方面都變得非常好。

現在確實似乎是一個特別重要的時期來推動我們稱之為編碼智能的東西,但我們也會儘快追趕其他方面。

Part 4:成本與速度的權衡

核心觀點: 到2027年底,GPT 5.2級別智能的成本將降低至少100倍。但新的需求正在浮現:不是更便宜,而是更快。成本優化和速度優化是兩個非常不同的問題。

到2027年底實現100倍降本

問: 您提到過"intelligence too cheap to meter"(智能便宜到不需要計量)。對我們來說,為客戶運行數百萬、數千萬、數億個Agent的限制因素是成本。您如何看待小模型和大幅降低成本?

山姆·阿特曼: 我認為到2027年底,我們應該能夠以至少100倍更低的成本提供GPT 5.2級別的智能。

但還有另一個維度,我們歷史上沒有太多考慮,現在隨著模型輸出變得如此複雜,越來越多的人在推動我們:不是成本,而是速度。我們非常擅長降低成本曲線。你可以看看我們從第一個01 preview到現在的進展。

但我們沒有太多考慮如何以相同的輸出、也許更高的價格,但在1/100的時間內交付。對於你談到的很多事情,人們真的會想要那個。

不幸的是,這是兩個非常不同的問題,我們必須弄清楚如何在這兩個優先事項之間平衡。但假設我們推動成本,假設這是市場想要的,我們可以在這條曲線上走很遠。

Part 5:定製軟體與個性化

核心觀點: 軟體正在從"靜態產品"變成"動態個人工具"。我們將期望軟體專門為自己編寫、不斷進化、適應個人使用習慣。OpenAI內部已經是這樣了——每個人都有自己的定製工具。

軟體正在變得個人化

問: 當前的界面不是為Agent設計的,但我們看到"為我構建的應用"正在興起。為什麼界面的定製化創新可以進一步加速微應用趨勢?

山姆·阿特曼: 這是我最近使用Codex時注意到的一個變化:我不再把軟體看作是靜態的東西了。如果我有一個小問題,我期望電腦立刻寫一些代碼來為我解決。

我認為這種趨勢會走得更遠。我懷疑我們使用電腦和作業系統的整個方式都會改變。我不認為會是"每次你需要編輯文檔,就會立刻為你寫一個新版本的文字處理器"——因為我們非常習慣我們的界面,那個按鈕在上次同一個位置是非常重要的。

但對於我們做的很多其他事情,我認為我們會發現我們期望軟體專門為我們編寫。也許我每次想用同一個文字處理器,但我確實有一堆重複的使用習慣,我希望軟體越來越定製化。

這個想法是:我們的工具在不斷進化,不斷適應我們每個人的習慣——你使用它的方式和我使用它的方式不同。工具會越來越懂你,這件事似乎一定會發生。

在OpenAI內部,人們已經非常深入地將Codex用於他們的工作流程。每個人都有自己的小定製工具,使用方式也完全不同。

Part 6:創業者與開發者指南

核心觀點: 判斷一家創業公司是否健康的標準:如果GPT-6是一個驚艷的更新,你的公司會高興還是難過?要構建那些"希望模型變得更強"的東西。Agent長時間自主運行不是"什麼時候"的問題,而是"擴展範圍"的問題——今天就可以在特定任務上實現。

為模型進步而高興的公司才是好公司

問: 當創業公司的功能可以很快被模型更新取代時,開發者應該如何思考持久性?你們承諾不會吃掉技術棧的哪一層?

山姆·阿特曼: 我們之前稍微談過這個。很容易假設商業的物理定律已經完全改變了,但它們還沒有。它們可能會隨著時間繼續改變,但現在改變的是你可以更快地完成工作,可以更快地創建新軟體。

但建立成功創業公司的所有其他規則——你必須找到獲取用戶的方法,你必須找到解決GTM問題的方法,你必須找到提供有粘性的東西的方法,有某種護城河、網路效應、競爭優勢——這些都沒有改變。好消息是,對我們也一樣。

很多創業公司做了一些事情,也許在一個完美的世界裡我們會更早做,但為時已晚,人們建立了真正持久的優勢,這將繼續發生。

我給人們的一般框架是:如果GPT-6是一個非常令人印象深刻的更新,你的公司會高興還是難過? 我鼓勵人們,因為我們會繼續希望取得很大進展,去嘗試構建那些你非常希望模型變得更好的東西。有很多這樣的東西可以構建。

那些只是在彌補模型短板的產品,如果你能在模型升級之前建立起足夠的優勢,實際上仍然可以成功,但這是一條更艱難、更有壓力的路。

Agent長時間運行的現實時間表

問: Agent能夠長時間自主運行複雜工作流而不需要持續人工干預的現實時間表是什麼?即使是簡單的鏈上任務,5到10步之後也經常會崩潰。

OpenAI員工回答: 我認為這真的取決於任務類型。今天在OpenAI內部,我們看到有人以非常特殊的方式提示Codex。也許他們在使用SDK,所以這是一個定製的工具,不斷提示它繼續,但基本上是讓它永遠運行。

所以這不是"什麼時候"的問題,而是"擴展範圍"的問題。如果你有一個非常具體的、你非常了解的任務,今天就試試。如果你開始想"好,我想讓模型幫我創辦一家公司"——那是一個開放得多的問題,驗證起來也難得多。

我鼓勵你弄清楚如何把它分解成不同的問題,讓Agent可以自我驗證,然後在最後驗證其最終輸出,隨著時間的推移,我們可以讓Agent做越來越多更大的任務。

Part 7:創意與想法的質量

核心觀點: 我們在工具的極限處思考。需要構建幫助人們想出好想法的工具——一個"Paul Graham(矽谷創業教父)機器人"。能發現新科學見解的模型,一定也能想出好的產品創意。

我們需要幫助人們想出好想法的工具

問: 您提到人類注意力是消費端的瓶頸。在生產端,對所有開發者來說,瓶頸是想法的質量。很多時候產品實際上不值得關注。那麼什麼工具可以提高人們想出來的想法的質量?

山姆·阿特曼: 世界上確實有很多人類生產的垃圾。提出好的新想法非常困難。

我越來越相信我們在工具的極限處思考。我認為我們應該嘗試構建幫助人們想出好想法的工具。我相信有很多這樣的工具。我相信隨著創造成本繼續暴跌,試錯會變得極其便宜,我們會更快地找到好的想法。隨著AI可以發現新科學,除了編寫非常複雜的代碼庫,我確信會有一個全新的可能性空間。

但坐在AI面前(比如一個代理代碼編寫器)卻不確定接下來要求什麼,這是很多人報告的體驗。如果我們可以構建工具來幫助你想出好想法——我相信我們可以做到。我相信我們可以看看你所有的過去工作和所有的過去代碼,嘗試弄清楚什麼可能對你有用或有趣,並且可以持續建議。

如果我們可以幫助提供一個非常好的頭腦風暴夥伴——在我的生活中有三四個人,我一直發現每次和他們相處後,我都會帶著很多想法離開。他們是那種真正擅長問問題或給你種子讓你去發展的人。Paul Graham(Y Combinator聯合創始人,矽谷最具影響力的創業導師之一,以寫作和指導創業者聞名)在這方面是超級厲害的。

如果我們可以構建一個Paul Graham機器人,你可以和它進行同樣的互動來幫助產生新想法,即使大多數是糟糕的,即使你對100個中的95個說絕對不行——我認為那將是對世界上構建的好東西數量的非常重大貢獻。

模型感覺應該能夠做到這一點。通過我們內部使用的一個特殊版本的5.2,我們現在第一次聽到科學家說這些模型的科學進展不再是完全微不足道的了。我簡直不敢相信一個可以想出新科學見解的模型,通過不同的工具和稍微不同的訓練,不也能夠想出關於要構建什麼產品的新見解。

Part 8:科學研究與AI

核心觀點: 完全自主的AI科研還很遠。目前最佳模式仍是人類+AI協作——類似1997年Deep Blue擊敗卡斯帕羅夫後的那段"人機協作期"。模型在創造力、直覺、判斷方面仍有明顯短板,但沒有原則性理由認為這無法突破。

人類+AI仍是當前科研的最佳組合

問: 作為一名科學家,一個科學項目往往會產生多個進一步研究的想法。這呈指數增長,而科學家只有線性減少的時間來執行。您認為模型會接管整個研究事業嗎?

山姆·阿特曼: 我認為模型做真正完全閉環自主研究在大多數領域還有相當長的路要走。

我們可以看看數學這樣的東西——它根本不需要濕實驗室或物理輸入。也許你可以通過非常努力地思考和不斷更新模型來取得大量進展。但即使在那裡,目前用模型取得最大進展的數學家仍然非常深入地參與,查看中間進展並說"不,這感覺不對,我有直覺在另一條路上有一些不同的東西"。

老實說,這感覺像是西洋棋歷史上的那個時期——深藍(IBM開發的西洋棋電腦)擊敗卡斯帕羅夫(當時的西洋棋世界冠軍,1997年的人機大戰是AI歷史上的標誌性事件),然後有一段時間,AI比人類更好,但一個人類加上AI,讓人類從AI的10個走法中選擇最好的,比單獨的AI更好。然後很快,AI又變得更好,人類只是在讓它變差。

我有點懷疑,對於像很多類型的研究這樣的東西,隨著時間的推移,類似的事情應該會發生。事情會變得如此複雜,AI可以比大多數人或所有人更好地理解多步驟的東西。

但關於創造力、直覺、判斷,有一些東西是我們現在這一代模型所沒有的。我想不出任何原則性的理由為什麼我們不會達到那裡,所以我假設我們會。但今天我不認為只是說"嘿GPT-5 GPT-6去解決數學"會比幾個非常優秀的人和它一起做數學,說"好這是個好方向,這是個好方向"要強。

生物安全是2026年AI最大風險之一

問: 我運營一家生物安全初創公司。您能談談安全在2026年路線圖中的位置,以及您如何思考這些問題嗎?

山姆·阿特曼: 2026年AI可能出錯的方式有很多。生物是我們相當緊張的一個。模型在生物方面相當擅長,而現在大多數——不僅僅是OpenAI,整個世界的策略——是試圖限制誰可以訪問它們,放置一堆分類器來不幫助人們製造新型病原體。

我不認為這會持續太久。我認為世界需要做的轉變,對於AI安全總體而言,特別是生物AI安全,是從阻止轉向韌性。

我的聯合創始人Wojciech(Wojciech Zaremba,OpenAI聯合創始人兼研究副總裁)使用這個我非常喜歡的類比,關於消防安全。火為社會做了所有這些美好的事情。然後它開始燒毀城市。我們試圖做所有這些事情來限制火。我實際上剛剛這個周末才知道"curfew"(宵禁)這個詞來自於你不再被允許生火,因為它們在燒毀城市。然後我們變得更擅長對火的韌性,我們想出了消防法規和阻燃材料以及一堆其他東西。現在我們作為一個社會在這方面相當擅長。

我認為我們需要以同樣的方式思考AI。AI將成為生物恐怖主義的真正問題。AI將成為網路安全的真正問題。AI也是這些問題的解決方案。它也是很多其他問題的解決方案。

我認為我們需要一個全社會範圍的努力,來提供這種韌性的基礎設施,而不是我們信任的實驗室總是阻止他們應該阻止的東西。世界上會有很多好的模型。

我們一直在與很多生物研究人員、公司交談,討論能夠應對新型病原體需要什麼。我認為有很多人對這個問題感興趣,很多人報告說AI實際上似乎對此有幫助。但這不會是一個完全的技術解決方案。你需要世界以不同於我們現在的方式來思考這些事情。

所以我對現狀非常緊張,但我看不到除了基於韌性的方法之外的其他路徑。AI似乎真的可以幫助我們快速做到這一點。但如果今年AI出現明顯的嚴重問題,我認為生物可能是一個合理的賭注。然後隨著我們進入明年和後年,你可以想像很多其他事情也會出嚴重問題。

Part 9:AI與教育

核心觀點: AI讓學習變容易不是問題,問題是教學方式需要改變。人與人的聯繫在AI時代會更有價值而非更少。但幼兒園應該遠離電腦——技術對幼兒的影響可能比對青少年更糟,只是討論得更少。

人機協作與集體智能

問: 當AI模型變得越來越好,對於自學來說非常棒。但人類協作的作用是什麼?如果你可以觸手可及地得到答案,為什麼還要花時間甚至摩擦去問另一個人?人類加AI呢?

山姆·阿特曼: 我比大多數人都老,但我在Google出來的時候還在上初中。老師們試圖讓孩子們承諾不使用它,因為有一種感覺,如果你可以觸手可及地查找任何東西,那為什麼還要來歷史課?為什麼要記住任何東西?

對我來說這完全是瘋狂的。我想的是,有了這個工具我會變得更聰明,學到更多,能做更多。這是我成年後要一起生活的工具。不學它,就像明知道有計算器,還非要學算盤一樣,毫無意義。

我對AI工具的感覺也一樣。我理解在我們目前教孩子的方式中,AI工具是個問題。但我認為這表明我們需要改變教學方式,而不是假裝不存在。

你仍然需要學會思考,寫作,學習寫作或寫作的實踐對於學習如何思考非常重要。但也許我們應該教你思考的方式和我們應該評估你思考能力的方式已經改變了,我們不應該假裝不是這樣。

我完全相信這會沒問題。我們會找到新的方式來教學。

還有你說的另一件事,關於如何讓這成為一件協作的事情,而不只是你一個人和電腦學習、表現、做著驚人的事情。我們還沒有看到證據表明相反的情況,這是我們試圖衡量的東西。

我懷疑在一個有大量AI的世界裡,人與人的聯繫將變得更有價值,而不是更少。人們會更看重與其他人聚在一起、與其他人一起工作。但我們已經開始看到人們探索讓這變得更容易的界面。

我的感覺是,雖然還沒有人找到最佳方案,但AI會以一種其他技術做不到的方式促進人類協作。想像一下,五個人坐在桌子旁邊,還有一個小機器人也在那裡,你們作為一個團隊會更高效,而且你會習慣這種模式。每次團隊頭腦風暴,每次解決問題,都會有一個AI參與,它會幫助團隊做得更好。

幼兒園不需要AI

問: 作為一位父親,您如何預見AI在幼兒園和中學這些真正形成期的教育變化?

山姆·阿特曼: 一般來說,我支持讓電腦遠離幼兒園。我認為幼兒園的孩子應該在外面跑來跑去,玩實物,試圖學習如何與彼此互動。

所以我不僅不會在大多數幼兒園大部分時間有AI,我也不會放電腦。我認為在發育方面,我們仍然不了解技術對孩子的所有影響。有很多關於社交媒體對青少年影響的文章,這似乎相當糟糕。但我有一種感覺,不幸的是,很多技術對幼兒的影響更糟糕,而且相對談論得很少。我認為在我們更好地理解這一點之前,也許我們不需要幼兒園的孩子使用大量AI。

Part 10:OpenAI的招聘與未來

核心觀點: OpenAI計劃大幅放慢招聘增速,但不會停止招聘。不要激進招人然後裁員——這是給所有公司的建議。未來的面試應該測試"用AI在20分鐘內完成去年需要兩周的任務"的能力。公司必須快速採用AI,否則會被全AI公司擊敗。

計劃大幅放慢增長速度

問: LinkedIn上仍然有OpenAI的軟體開發者職位。AI改變了面試過程嗎?

山姆·阿特曼: 我們會繼續雇用軟體開發者,但我們第一次計劃大幅放慢增長速度,因為我們認為我們將能夠用更少的人做更多的事情。我知道每家公司和每家創業公司也在考慮這個問題。

我認為我們不應該做的,我也希望其他公司不會做的,是非常激進地招聘,然後突然意識到AI可以做很多事情,你需要更少的人,然後不得不進行某種非常不舒服的對話。

所以我認為正確的方法是更慢地招聘但繼續招聘,並相信——我不相信有一天OpenAI會有零員工,但很長一段時間我認為我們只會有逐漸增加的人數做更多的事情。這大概是我預期整體經濟的形態。

關於面試的樣子,它還沒有像應該的那樣改變太多,但我今天在一個會議上,人們在討論我們希望它如何改變。我們基本上想讓你坐下來,做一些在去年這個時候對一個人來說不可能在兩周內完成的事情,然後看他們在10分鐘或20分鐘內完成。

你想看到人們能夠以這種新方式非常有效地工作。我認為軟體工程面試已經糟糕很長時間了,可能不那麼相關。但現在它們更不相關了。

公司全部AI化還是人機協作?

這些問題有幾個暗示了一個更普遍的事情,那就是未來是公司不雇用很多人而有很多AI同事,還是贏得未來的公司完全是AI——比如一架滿是GPU的機架而沒有人?

我真的希望是前者。有很多原因為什麼它可能更接近後者。但如果公司不積極採用AI,如果公司不弄清楚如何雇用那些會真正有效使用工具的人,他們最終會被一家不需要有那些阻止大公司使用AI的愚蠢政策的全AI公司擊敗。這感覺對社會來說會是非常不穩定的事情。

所以——我們一直在試圖弄清楚如何談論這個,因為對我們來說自己說這個聽起來是自私的——但我認為公司以大的方式快速採用AI非常重要。

Part 11:Agent的潛在風險

核心觀點: 最被低估的風險是"夢遊進入危險"。AI工具的便利性讓人很快放棄監督,從"絕不給它完全訪問權限"到"YOLO"只需要兩小時。能力曲線急劇上升,但安全基礎設施沒有跟上——這是一個創業機會。

我們可能會"夢遊"進入風險

問: 隨著Agent開始越來越多地在生產系統中移動和運行,特別是大規模時,您認為最被低估的失敗模式是什麼?安全、成本、可靠性?

山姆·阿特曼: 到處都是問題。讓我個人驚訝的一件事是——當我第一次開始使用Codex時,我說"我不知道這會怎麼樣,但我肯定不會給這個東西完全無監督地訪問我的電腦。" 我對此非常有信心。然後我大概堅持了兩個小時,然後我想"你知道,它似乎做的事情非常合理。我討厭每次都要批准這些命令。我就打開一小會兒看看會發生什麼。" 然後我從來沒有關掉過完全訪問權限。

我認為其他人也有類似的經歷。所以我的普遍擔憂是,這些工具的力量和便利性太高了,而出錯的概率又太低——雖然一旦出錯可能是災難性的——我們會慢慢滑入一種"管他呢,應該沒事"的狀態。

然後隨著模型變得更強大,更難理解它們在做的所有事情,如果模型中有不對齊,如果有某種複雜的問題在幾周或幾個月的使用中出現,你在你做的東西中放入了某種安全漏洞——你可以對這條曲線有各種意見,關於你想讓AI不對齊的科幻程度有多瘋狂。

但我認為會發生的是,採用這些工具的壓力、使用它們的壓力——不僅僅是壓力,還有它們的愉悅和力量——將如此之大,以至於人們會被拉入不夠考慮他們運行這些東西的複雜性、他們如何確定他們設置的沙盒的狀態。

我的普遍擔憂是,能力將急劇上升,我們會習慣模型在某個水平上的工作方式並決定我們信任它們,而沒有建立非常好的——我稱之為大局安全基礎設施——我們會夢遊進入某種狀況。

我認為那將是一個很好的公司來構建。

Part 12:技術債務與新技術

核心觀點: 不用擔心被舊技術棧鎖定。模型會快速適應新技術——一個重要里程碑是:模型遇到全新的東西,探索一次就能可靠使用。這感覺不會太遠了。

模型會快速適應新技術

問: 我很喜歡看到技術的構建塊進化,我經歷過一些瘋狂的Web革命,比如轉向TypeScript和Tailwind。但我的擔心是,隨著模型和工具變得更好,我們可能會被困在現在的方式中,就像美國的電網以某種方式建造,使事情變得更糟,我們真的無法改變它。我們現在是否在用現有技術建造基礎,未來會更難替換?

山姆·阿特曼: 我認為我們真的會非常擅長讓模型使用新東西。從根本上說,如果我們正確使用這些模型,它們就像一個通用推理引擎。我們現在架構事物的方式,它們也有大量的世界知識內置其中。但我認為我們正在朝著正確的方向前進。

我希望更新、使用新東西、比人類更快地學習新技能是一個接下來幾年的事情。我們會非常自豪的一個里程碑是,當模型可以被呈現完全新的東西——新環境、新工具、新技術,你可以解釋一次,或者模型可以探索一次,然後就超級可靠地使用它並做對。 這感覺不是很遙遠。

Part 13:隱私與個性化

核心觀點: 我已經準備好讓ChatGPT看到我的整個數字生活了——價值太高,不舒服感已經消失。不想手動分組記憶;想要AI深入理解我生活的複雜規則,自動知道什麼時候用什麼、在哪裡暴露什麼。

我已經準備好讓ChatGPT看到我的整個數字生活

問: 關於個性化和記憶,您如何看待這隨時間的演變?還有,對於更精細的控制——比如分組記憶,這是我的工作身份,這是我的個人身份——有什麼想法?

山姆·阿特曼: 我們會大力推動記憶和個性化。顯然,人們想要它,它提供了更好的使用這些工具的方式。

我自己在這方面有過演變。但現在,我已經準備好讓ChatGPT看到我的整個電腦和整個網際網路,讓它了解我的一切。它帶來的價值太高了,我已經不再覺得不舒服。

我真的希望所有AI公司都非常認真地對待安全和隱私,我也希望整個社會如此,因為效用如此之大——AI將了解我的整個生活。我不會阻擋它。

我還沒有準備好戴上記錄一切的眼鏡。我認為那仍然因為很多原因而不舒服。但我確實準備好說"嘿,你可以訪問我的電腦,弄清楚發生了什麼,對我有用,理解一切,有我數字生活的完美表示。"

我很懶。我認為大多數用戶也很懶。所以我不想坐在那裡分組——這是工作記憶,這是個人記憶。我想要的,我相信是可能的,是讓AI對我生活的複雜規則、互動、層級有如此深入的理解,以至於它知道什麼時候使用什麼、在哪裡暴露什麼。

我們最好弄清楚這一點,因為我認為這是大多數用戶想要的。

Part 14:AI時代最重要的技能

核心觀點: 不是具體技能,而是軟技能:高度自主、擅長產生想法、有韌性、適應快速變化。這些都是可以學習的——三個月的訓練營可以讓人在這些方面變得極其強大。

問: 您認為人們在AI時代應該學習的最重要的技能是什麼?

山姆·阿特曼: 這些都是軟技能。沒有一個像"去學編程"那樣明顯——這在近期顯然是正確的事情,但現在不是了。

但像變得高度自主、擅長產生想法、非常有韌性、非常適應快速變化的世界這樣的技能——我認為這些將比任何具體的技能更重要。而且我認為這些都是可以學習的。

這是我做創業投資時的一個重要發現——我很驚訝,通過一個三個月的訓練營,就可以讓人們在這些方面變得極其強大。所以我認為這些是最重要的技能,而且它們是可以學習的。

結語:告訴我們你想要什麼

山姆·阿特曼:非常感謝大家的到來和交流。我們真的想要你們的輸入,告訴我們你們希望我們構建什麼。

假設我們將擁有一個比當前模型強大100倍的模型,100倍的上下文長度,100倍的速度,100倍降低的成本,完美的工具調用,極致的連貫性——我們會達到那裡的。告訴我們你們希望我們構建什麼。

我們會留下來,如果你們說"嘿,我只需要這個API"或"我只需要這種原語"或"我只需要這種運行時"——我們是為你們構建的,我們想要做對。

感謝大家的到來。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2026 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新