宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

2024年03月19日 首頁 » 熱門科技
今天凌晨,OpenAI CEO Sam Altman 公開一則專訪,裡面包含一切大家感興趣的話題,其中主持人也是我們熟悉的老面孔 Lex Fridman。

考慮到訪談篇幅較長,我們特意準備了太長不看版:

談 GPT-5 :我預計 GPT-5 和 GPT-4 之間的差距將和 GPT-4 與 GPT-3 的差距一樣大。但接下來將有一系列很酷的產品需要比 GPT-5 優先發布。

談罷免風波:那確實是我一生中最痛苦的職業經歷,混亂、羞恥、心煩,還有很多其他的負面情緒。通往 AGI 的道路肯定會充滿激烈的權力角逐。

談 Ilya 去哪兒:我非常喜愛 Ilya,對他也有著極大的敬意。他絕對是個思考深刻的人。我認為 Ilya 始終在以非常積極的方式進行靈魂探索。

談馬斯克起訴:至於伊隆真正的動機是什麼,我真的不清楚。他在不同時間點有過多種想法,包括把 OpenAI 變成一個他能控制的盈利性公司,或者是讓它與特斯拉合併。我們並不同意這樣做,於是他決定離開,這也挺好的。

談 Sora :很多影片,或許是大多數影片,在製作過程中會運用到 AI 工具,但它們的核心仍然是由人來思考、構思、負責部分執行,並指導整個項目的運作。討論 AI 能執行多少種任務比能取代多少工作要更加有意義。

談 AGI :AGI 並不是一個終點,它更像是一個開始,其實更多是一個里程碑。

談監管:我或者其他任何一個人都不應該對 OpenAI 或者 AGI 擁有完全的控制權。我覺得要有一個強健的治理體系才行。

是否相信有外星人:我非常希望相信答案是肯定的。我覺得費米悖論特別難以理解。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

OpenAI 董事會之爭

Lex Fridman

請你帶我了解一下從 11 月 16 日星期四開始的,或者對你來說是 11 月 17 日星期五的 OpenAI 董事會那一連串的事件。

Sam Altman

那確實是我一生中最痛苦的職業經歷,混亂、羞恥、心煩,還有很多其他的負面情緒。當然也有不少好的方面,但我當時被腎上腺素沖得頭昏眼花,沒能停下來好好欣賞它們。我翻看了那個時期自己發的一條舊推特,感覺就像在讀自己的悼詞,看著別人對你說出的那些美好的話,感受到來自我所愛和在乎的人的難以置信的支持。

那真的非常美妙。那整個周末,除了一個很大的例外,我感覺到了濃濃的愛意,幾乎沒有仇恨,儘管當時感覺自己完全搞不懂正在發生什麼,接下來會發生什麼,整個人感覺非常糟。確實有些時候,我以為這可能會成為AI安全領域發生的最糟糕的事情之一。

不過,我也覺得,它發生得相對較早是件好事。我曾想,從 OpenAI 成立到我們創造出 AGI,中間肯定會有些瘋狂爆炸的事情發生,而且未來也許還會有更多瘋狂爆炸的事情發生。不過,我認為這次經歷增強了我們的韌性,為未來可能遇到的更多挑戰做好了準備。

Lex Fridman

但你有沒有預感到,你可能會經歷某種權力的角逐?

Sam Altman

通往 AGI 的道路肯定會充滿激烈的權力角逐。世界會……嗯,不是會,我是說我預計這就是未來的景象。

Lex Fridman

所以你必須得經歷這個過程,正如你所說,要儘可能頻繁地疊代,弄清楚如何構建董事會的架構,如何進行組織管理,如何選對合作夥伴,以及如何有效溝通,目的是為了儘量減少權力鬥爭。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Sam Altman

沒錯

Lex Fridman

放輕鬆

Sam Altman

但現在,那感覺像是一段已經過去的時光,曾經非常艱難、痛苦,難以忍受,但我們又回到了工作崗位,事情忙得不可開交,強度巨大,以至於我並沒有太多時間去回想那段經歷。

那之後有一陣子,可能是一個月左右,或者說 45 天之後,我仿佛處於一種恍惚狀態,每天都感覺自己像漂流瓶一樣,茫然四顧。我的精神完全崩潰了,情緒也陷入了極度低落。

Lex Fridman

就在個人心理層面上?

Sam Altman

是的,非常痛苦。而且在那種情況下還得堅持管理 OpenAI,難度真的很大。我只想找個洞穴鑽進去,好好休養一陣子。不過現在,我們又回到了奮戰在我們的使命上。

Lex Fridman

嗯,對於你這樣有極高潛力打造 AGI 的人來說,回過頭去反思董事會架構、權力動態、公司運作方式、研究與產品開發之間的張力、金錢等因素,無疑是有益的。

這樣一來,未來你在建立 AGI 的道路上,可以更加有條不紊,少一點戲劇性衝突。所以,不妨去那兒走一遭,不僅是為了你作為領導者的個人心理層面的成長,同時也是為了搞清楚董事會結構和所有那些複雜混亂的事務。

Sam Altman

我確實從中學到了許多關於組織結構、激勵機制以及我們對董事會的期望。在某種意義上,這種情況現在發生我覺得還是有它的價值的。

我認為這可能不是 OpenAI 最後一次面對如此大的壓力,但這無疑是一個相當緊張的時刻。

我的公司差點就垮了。除了考慮很多其他我們必須為 AGI 準備好的事情外,思考如何打造一個有韌性的組織、如何構建一個能承受世界壓力的結構體系,我認為這非常關鍵。

Lex Fridman

你能感覺到董事會在決策過程中的深度和嚴格程度嗎?能否透露一下這種情形下涉及的人與人之間的動態是怎樣的?是不是就幾次對話後事態突然激化,然後就有人說「為什麼不開除 Sam」這種話?

Sam Altman

我覺得董事會成員整體而言都是出於好意的人,我相信在那種壓力重重,時間緊迫的情況下,人們能夠理解並會作出非最佳的決定。我認為 OpenAI 面臨的一個挑戰是,我們必須組建一個在壓力之下依然能夠高效運作的董事會和團隊。

Lex Fridman

你覺得董事會的權力過大了嗎?

Sam Altman

我覺得董事會理應掌握重要的權力。但是,我們注意到,在大多數公司架構中,董事會通常需要對股東們負責。有時候,人們可能持有一些特殊的投票權股份。

在這個情況下,我覺得對於我們的架構來說,一個我們或許應該更深入思考的問題是,如果不特別制定規則的話,非營利組織的董事會實際上掌握著很大的權力。

他們並不真正向任何人負責,除了他們自己。這樣有它的好處,但我們更希望的是 OpenAI 的董事會能夠對全世界負責,儘管我們知道在實踐中這可能很難做到。

Lex Fridman

所以他們宣布成立了一個新的董事會。

Sam Altman

嗯,對。

Lex Fridman

剛開始是一個新的小型董事會,現在又換成了新的正式董事會?

Sam Altman

我們的董事會還沒有最後敲定。我們已經添了一些成員。接下來還會繼續增加。

Lex Fridman

加了一些。好的。在新版本里修復了之前版本哪些可能出現的問題呢?

Sam Altman

舊董事會在大約一年時間裡逐漸縮減了。起初是九個人,後來減到六個,接著我們在增補新成員上意見不統一。我覺得董事會中也缺乏經驗豐富的成員。而現在 OpenAI 的新董事會成員們都有著更多的董事會工作經驗。我認為這會有所改善。

Lex Fridman

這個問題受到了不少批評,比如有人對拉里·薩默斯被加入董事會表示不滿。你們挑選董事會成員的過程是怎樣的?這個過程中涉及哪些因素?

Sam Altman

那個周末,Brett 和 Larry 的決定在一連串緊張氣氛中做出了,那真是個情緒起伏的過山車周末。我們在波折中努力協商,希望確定新董事會成員,這些人選要得到這裡的執行團隊和老董事會成員的雙重認可。

其實,Larry 就是老董事會推薦的人之一。至於 Brett,我記得在那瘋狂周末之前,我就提過他,但他當時太忙了,沒興趣。

之後,我們迫切需要支持,在不清晰時更是如此。我們也考慮了很多其他人選,但我感覺如果我要重返崗位,就必須換上新的董事會成員。

我認為自己無法再次與原來的董事會以同樣的方式合作,雖然我們最終還是決定,也深表感激 Adam 能夠留下。

但在各種可能的配置下,我們最終決定要組建一個三人董事會,並在極短的時間內找到兩名新董事會成員。

所以那些決策實際上是直接做出的……在戰場上就是這樣,你沒辦法去設計一個嚴格的流程。但對於之後加入的新董事會成員,以及未來我們還會繼續增加的成員,我們確實設立了一些重要的標準。我們希望董事會能夠涵蓋不同的專業領域。

招聘執行官的時候你可能只需要他們在一個崗位上做好,但對於董事會而言,它們需要在治理和思考方面表現出全方位的能力。

Brett 說過一句我特別認同的話,那就是我們希望以整批的方式招募董事會成員,而不是一次聘用一個人。

我們努力要實現的是吸納一批人,他們能夠帶來非營利組織方面的專業知識、企業運營的專長,以及紮實的法律和治理專業知識。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Lex Fridman

那麼,董事會成員個人的技術水平重要嗎?

Sam Altman

不是每個董事會成員都需要這樣做,但肯定有些人是必須的。這正是董事會職責的一部分。

Lex Fridman

人們可能還不太了解 OpenAI 的有意思的一面,我自己肯定也不夠了解,那就是運營業務的所有那些細枝末節。當人們想到董事會,再想到那些戲劇化的元素,他們首先想到的是你。他們會思考,如果你們開發出通用人工智慧(AGI)或者其他一些具有巨大影響的產品,並且成功將它們推向市場,那麼你和董事會之間會有怎樣的對話呢?他們還會考慮,在這種場景下,要組建一個怎樣的團隊來進行決策和討論?

Sam Altman

你看,我認為董事會裡肯定需要一些技術專家。同時,也需要那些會考慮到:「我們怎樣部署這項技術才能最大限度地造福人類?」的人。還需要那些有著截然不同視角的人。

我想,像你我這樣的人可能會犯的一個錯誤就是以為只有技術上的理解才是關鍵,這確實是你希望董事會討論的內容之一,但還有很多其他方面,比如這項技術將如何影響社會和人們的生活,這些你也同樣希望能夠在董事會中得到體現。

Lex Fridman

你是在審查他們過去的成就記錄,還是只是跟他們進行交流?

Sam Altman

過去的業績確實很關鍵。你當然會有很多對話,但在某些角色上我會完全不去看過去的業績,只看他的上升勢頭,忽略掉 Y 軸的截距。

Lex Fridman

謝謝你。感謝你用數學的方式向觀眾闡明問題。

Sam Altman

作為董事會成員,我確實更在乎 Y 軸截距。在這方面,我覺得對於過往業績的記錄能說的深入之處很多,而且經驗是一種很難替代的東西。

Lex Fridman

你是嘗試用一個多項式函數還是指數函數來擬合這個成績記錄?

Sam Altman

這個比喻有點牽強。

Lex Fridman

好的,你之前提到了那個周末經歷的一些低谷時刻。在心理上,你都遇到了哪些挫折呢?你有沒有想過乾脆去亞馬遜雨林,嘗試一下阿亞瓦斯卡(一種致幻劑),然後就此隱匿天涯呢?

Sam Altman

這段時間真的很糟糕。不過也有一些非常棒的時刻。我的手機簡直要爆炸了,一直收到來自我日常工作的夥伴們,以及那些十年未見的老朋友們發來的暖心資訊。

我應該更加珍惜這些時刻,但當時我忙於應對危機,沒能充分感受到這份溫暖,不過這確實讓人感到很棒。總體而言,那個周末還是非常痛苦的。它就像是一場在公眾視線中打響的戰鬥,出乎意料地讓我筋疲力盡,遠比我預期的要累。通常爭鬥本就令人筋疲力盡,而這場尤其如此。董事會在周五下午做了這個決定。

我真的很難獲得任何答案,但我也覺得,既然董事會有權這麼做,那麼我就應該花點時間好好想想我接下來想要做什麼。不過,我會試著在這件事中尋找隱藏的幸運。

我當時心想,我的目前職位在 OpenAI,或者至少過去是,負責運營一個規模相當大的公司。我一直最喜歡的部分就是與研究者們共事。然後我就在想,對,我完全可以去從事一項高度聚焦的 AGI 研究工作。

這個想法讓我感到很興奮。當時我甚至沒意識到,所有這些努力可能會化為泡影。那是在一個星期五的下午。

Lex Fridman

所以你已經接受了這一的終結……

Sam Altman

非常快,真的非常快。我確實經歷了一段時間的迷茫和憤怒,但這種狀態轉瞬即逝。到了周五晚上,我已經在跟人討論下一步該怎麼做,而且我對此感到振奮。我記得是周五晚上,我首次聽到我們執行團隊的人說:「嘿,我們將會反擊。」然後,我帶著興奮的心情上床睡覺了,心想,向前沖。

Lex Fridman

你能睡著嗎?

Sam Altman

不多。有一段蠻奇怪的時期,大概四天半吧,我幾乎沒怎麼睡覺,也沒怎麼吃東西,但是依然精力充沛。你會在戰時了解到一些關於腎上腺素的奇特現象。

Lex Fridman

所以你已經接受了,這個被你視為孩子的 OpenAI 會有失敗的一天。

Sam Altman

我當時對那個新東西特別激動。就那麼想著,「行吧,這玩意兒確實瘋了點,但管它呢。」

Lex Fridman

這真是個很棒的應對策略。

Sam Altman

那天周六早上,兩位董事會成員給我打電話說,「嘿,我們並不是想攪局。我們不打算在這裡大把存儲價值。我們能談談你回歸的事情嗎?」起初,我真的不想回去,但後來我又仔細思考了一番,我意識到我非常關心這裡的人,我的合伙人和股東們。我愛這家公司。

於是,我想了想,對他們說:「好吧,不過我有我的條件。」而那整個周末,是最讓人痛苦的時刻,我不斷地反思,也被告知,而且不只是我,我們整個團隊都在想,我們正在努力維持 OpenAI 的穩定,而此時全世界似乎都在試圖將其分崩離析,到處都有人在嘗試挖角。

我們一直被告知,「好了,我們快要弄完了。我們快要完成了。我們只需要再多一點點時間。」這讓人非常困惑。直到周日晚上,我幾乎每隔幾小時就會以為我們就要結束了,我們能找到方法讓我回去,讓一切恢復原狀。但董事會隨後任命了一位新的臨時 CEO,那一刻我感覺真的很難受。

那是整件事中最低谷的時刻。我跟你說,雖然感覺非常痛苦,但我在那整個周末都感受到了很多愛。除了那個周日晚上的瞬間,我不會說我的感受是憤怒或恨,相反,我感受到了來自人們的愛,也對他們滿懷愛意。那很痛苦,但那個周末的主導情緒是愛,而不是恨。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Lex Fridman

您曾對 Mira Murati 給予高度評價,說她在那些關鍵的、平靜的時刻給予了特別的幫助,就像您在推文中提到的那樣。或許我們可以稍微繞個彎。您最欣賞 Mira 的什麼特質呢?

Sam Altman

她在那個周末的混亂中表現得非常出色,但人們往往是在危機時刻,無論好壞,才會關注領導者的表現。然而,我真正看重的是,在一個平凡的周二早上 9 點 46 分,在日常的平淡和繁瑣中,領導者如何行動。一個人怎樣出席會議,他們作出決策的質量如何。這就是我提到的「靜默時刻」的含義。

Lex Fridman

絕大多數的工作都是日復一日,在一次次會議中慢慢推進的。只需要聚精會神,做出優秀的決策就行了。

Sam Altman

是的,看吧,你想要花費過去二十分鐘探討的那件事——我明白——是關於那個非常戲劇化的周末,但那並不是 OpenAI 的核心所在。OpenAI 的重心實際上在於其餘的七年。

Lex Fridman

嗯,對。人類文明可不止是納粹德國侵略蘇聯這檔子事,但這依舊是大家特別關注的焦點。

Sam Altman

沒錯

Lex Fridman

這為我們提供了洞察人性的窗口,包括人性的極致以及或許正是在那些時刻,人類文明的某些毀壞和偉大成就得以顯現,因此這非常具有啟發性。

Ilya Sutskever 去哪了

Lex Fridman

那麼關於 Ilya 的問題,我可以問你嗎?他是不是被關在某個秘密核設施里作為人質?

Sam Altman

No

Lex Fridman

那麼普通的秘密基地呢?

Sam Altman

No

Lex Fridman

一個不涉密的核設施怎麼樣?

Sam Altman

肯定也不是

Lex Fridman

這事兒已經有點成梗了。你跟 Ilya 認識很長時間了對吧。他顯然捲入了那場董事會的風波。現在你倆的關係怎樣?

Sam Altman

我非常喜愛 Ilya,對他也有著極大的敬意。關於他的計劃,我現在真的沒什麼可以透露的。這應該由他來回答。不過,我真心希望我們能夠持續合作,至少在我的職業生涯剩餘時光里。他比我年輕那麼一點,也許他會比我工作更長久一些。

Lex Fridman

有個流傳的段子說,他看到了一些東西,好像是他看到了AGI,這件事讓他內心充滿了憂慮。Ilya 到底看到了什麼?

Sam Altman

Ilya 從來沒有見過通用人工智慧(AGI)。我們任何人都還沒有。我們也還沒造出通用人工智慧。不過,伊利亞身上有很多讓我敬佩的品質,其中一個就是他非常重視關於通用人工智慧及其廣泛的安全問題,這包括它可能對社會造成的影響。

隨著我們不斷地取得顯著進展,這幾年我最多的時間都是和伊利亞一起討論這將意味著什麼,我們需要怎麼做才能確保做得正確,以保證我們的使命能夠成功完成。所以,雖然伊利亞沒有見過 AGI,但他對確保我們在這個過程中行得正、走得穩的深思熟慮和憂慮,對人類來說是一份寶貴的貢獻。

Lex Fridman

我過去與他有過不少交流。我覺得,每當他談到技術,他總是持有一種長遠的思考方式。他不太關心一年內會發生什麼,而是在想像 10 年後的情況,基於首要原則去思考:「好的,如果這東西真的能夠擴展開來,那麼基本要素是什麼呢?會有哪些發展?」

這種思考方式為他們在關注所有的安全問題等方面打下了堅實的基礎,這也讓和他對話變得非常吸引人。你了解他為何近來鮮有發聲嗎?他是不是在做些靈魂深處的思索呢?

Sam Altman

再說一次,我不想代表 Ilya 發言。我覺得你應該親自去問問他。他絕對是個思考深刻的人。我認為 Ilya 始終在以非常積極的方式進行靈魂探索。

Lex Fridman

是的,對。他還真懂得沉默的魅力。我聽說他其實挺逗的,不過我個人還沒機會見識過這一面。

Sam Altman

當那種情況發生時,感覺真的很溫馨。

Lex Fridman

我還沒遇到過傻傻的 Ilya,不過我也挺期待這一天呢。

Sam Altman

我最近和他一起去了個晚宴,他當時正在和一隻小狗玩,心情非常輕鬆、嬉皮,真的很讓人覺得親切。我當時就想:哇~這面是 Ilya 不太給外界看到的。

Lex Fridman

那麼,就這整樁事情而言,你對董事會的架構滿意嗎?

Sam Altman

Yes

Lex Fridman

… 關於這一切及其走向,你有何看法?

Sam Altman

我對新董事會的組建感到非常滿意。在 OpenAI 的架構方面,董事會的職責之一就是進行審視,看看我們如何能夠加強其結構的韌性。我們的首要任務是先確定新的董事會成員,但顯然在這個過程中,我們對結構的認識有了顯著的進步。我認為我沒有什麼特別深刻的見解。

是一段極其混亂和痛苦的經歷。

我覺得這就像一場怪異的完美風暴。

這對我來說預示著未來的挑戰,隨著賭注的不斷升高,我們需要有更為強健的治理結構、流程和團隊。

我很慶幸這一切在我還年輕時發生,但實際上這是一次異常艱難的經歷。

Lex Fridman

這會不會使你在信任別人方面變得更加猶豫呢?

Sam Altman

Yes

Lex Fridman

就個人而言?

Sam Altman

是的,我自認為是一個極度信任他人的人。我一向堅持的人生哲學是:不必太過擔憂,不必在意那些偏執的疑慮和極端的可能性。這樣做的代價可能是偶爾吃點小虧,但作為回報,你得以放鬆警惕地生活。然而這件事對我來說真的是晴天霹靂,我措手不及,它確實改變了我。我並不喜歡這種改變,但它確實影響了我對於對人默認信任的態度以及對潛在壞情況的規劃。

Lex Fridman

你得在這方面多加留心。你擔心自己會變得過於憤世嫉俗嗎?

Sam Altman

我不害怕自己會變得過於憤世嫉俗。我覺得我本性里就很不憤世嫉俗,但我擔心,自己可能逐漸喪失那種對別人的本能信任。

Lex Fridman

我其實還沒把握好,對於那些正致力於開發通用人工智慧的人而言,是信任模式更為適宜,還是持懷疑態度更好。這條路你走得真有意思。不過說到架構,我其實更關注人這一層面。

你怎麼做到讓自己周圍都是那些既在打造酷炫東西,又能作出睿智選擇的人?因為你掙的錢越多,這件事的影響力也就越大,周圍的人就越發變得詭異。

Sam Altman

我覺得你完全可以就董事會成員的問題,以及我應該給予的信任程度,或者說我應該採取不同的做事方式提出種種意見。但如果說到這裡的團隊,我相信你會給我一個非常高的評價。對於那些我每天都要共事的人,我心中充滿了巨大的感激、信任和尊重。我認為,讓自己被這樣的人包圍是極其重要的。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Elon Musk 的訴訟

Lex Fridman

我們共同的朋友 Elon Musk 起訴了 OpenAI。在你看來,他批評的核心問題是什麼?他有多少批評是站得住腳的?又有多少是誤會或不對的?

Sam Altman

我真的不清楚這到底是怎麼一回事。最初,我們只認為自己將成為一個研究實驗室,對這項技術未來的發展毫無頭緒。那是七八年前的事了,現在想回憶起當時的情況真的很難,那個時候語言模型還沒成為熱門話題。我們甚至還沒想到要開發一個 API 或者賣聊天機器人的訪問權限。

我們也沒有想過要將其產品化。當時我們的想法就是,「我們就去做研究吧,至於研究成果能用來做什麼,我們並不清楚。」我想在探索完全新穎的事物時,你總是摸著石頭過河,制定一些假設,而這些假設大多數最終都被證明是錯誤的。

接著,我們意識到我們需要做出一些不同的事情,並且需要巨額的資本。所以我們就在想,『行吧,當前的結構顯然不太合適。我們該怎樣去補救?』

補了一次又一次,最終我們得到的東西確實讓人不禁挑挑眉毛,至少可以這麼形容。不過,我覺得我們在每一步都做出了合理的決策。這並不是說如果能有機會回到過去,有個先知在旁邊指導,我就不會選擇完全不同的做法。不過,當時我們手邊可沒有先知。不管怎樣,至於伊隆真正的動機是什麼,我真的不清楚。

Lex Fridman

在 OpenAI 的博客文章中,他們給出的回應主要集中在為什麼他們認為不應該繼續推出完整版 GPT-3 API 的理由。他們提到了對模型潛在被濫用的擔憂,以及他們認為現階段需要加強監管和提高透明度。

此外,他們也談到了對於 AI 長期影響的責任感,並表示願意與其他機構合作,確保 AI 的使用是安全和有益的。

Sam Altman

哦,我們剛剛提到伊隆表達了一系列看法。這裡是我們的陳述,或者說不是我們的陳述。這是對事件經過的一個描述。我們試圖不帶入個人情緒,只是陳述,「這就是歷史。」

Lex Fridman

我覺得 Elon 對你剛才提到的一點有些誤解,也就是你們當時所面臨的不確定性有多大。你們只是一幫小研究團隊,瘋狂地討論著 AGI,而那時候,所有人都覺得這個想法很可笑。

Sam Altman

Elon 不久前還在瘋狂地談論發射火箭,那時候大家都對這個念頭嗤之以鼻,所以我覺得他對這件事會有更多的共鳴。

Lex Fridman

我確實認為這裡面有一些個人的因素。OpenAI 和這裡的很多了不起的人決定與 Elon Musk 分道揚鑣,因此存在一些個人層面的-

Sam Altman

Elon 選擇了離開

Lex Fridman

你能具體說說嗎?那種選擇分道揚鑣的情形?

Sam Altman

他覺得 OpenAI 快要失敗了。他想要完全控制權來挽救局面。但我們想要繼續沿著現在 OpenAI 所走的方向前進。他還想要特斯拉能夠開展一個 AGI (人工通用智能)項目。他在不同時間點有過多種想法,包括把 OpenAI 變成一個他能控制的盈利性公司,或者是讓它與特斯拉合併。我們並不同意這樣做,於是他決定離開,這也挺好的。

Lex Fridman

所以你的意思是,正如那篇博客文章里提到的,他想要的是 OpenAI 能像被特斯拉收購那樣,或許是與微軟的合作方式有點相似,或者說可能是一種更為戲劇化的形式。

Sam Altman

我的記憶里,那個提議就是這麼回事,就是說,被特斯拉收購,然後讓特斯拉完全掌控它。我很確定提議就是這個意思。

Lex Fridman

當時,Elon,OpenAI 中的 「open」 對你意味著什麼?Ilya 在郵件往來中已經談論過這個話題。那時候它對你意味著什麼?現在又是怎樣的意義呢?

Sam Altman

說到如果能帶著一個「神諭」重來,我可能會選一個不同的名字。OpenAI 正在做的眾多事情中,我認為最重要的就是免費地將強大技術交到人們手中,作為一項公共福利。我們不在我們的服務上投放廣告——

Sam Altman

作為公共利益的一部分,我們沒有在免費版本中投放廣告,也沒有通過其他途徑來盈利。我們的出發點只是我們的使命 —— 免費為人們提供越來越強大的工具,並且讓他們去使用。我覺得這樣的開放對我們的願景至關重要。如果我們能夠提供優秀的工具,讓人們學會使用,或者他們甚至可以自學成才,然後用這些工具為彼此打造一個美好的未來,這將是意義重大的。所以,如果我們能持續向世界提供免費或低成本的強大 AI 工具,這將極大地推進我們的使命。至於是否開源,嗯,我認為我們應該對一些東西開源,而對其他的則不必。這件事往往會變成一種信仰之爭,很難保持中立,但我相信尋找平衡點才是正確的做法。

Lex Fridman

所以他就跟我說:「如果你們把名字改成 CloseAI ,我就撤銷訴訟。」我是說,難道這就要成為一個圍繞名字的梗,在這片戰場上互相對決了嗎?

Sam Altman

我覺得這體現出 Elon 提起訴訟的嚴肅態度,說實話,這種說法真是讓人吃驚。

Lex Fridman

你要是覺得我錯了就糾正我,但我個人覺得這場官司在法律上並不算嚴重。它更多的是在向人們傳遞一個關於未來通用人工智慧(AGI),以及目前在這個領域領先的公司的資訊。

Sam Altman

看,我的意思是,在人們指出這樣做有點偽善之前,Grok 是沒有開源過任何東西的。然後,他宣布 Grok 將在本周開始開源一些東西。我認為對他來說,這件事並不僅僅是關於是否開源的問題。

Lex Fridman

嗯,我們會討論一下開源和非開源的話題。我倒是覺得,批評一下競爭對手挺好的,適當地說點壞話也無妨。但這得是建立在友好競爭的基礎上,比起來,我個人真是非常討厭打官司。

Sam Altman

「看,我認為整個事情對於一個建造者來說是不應該的。我尊敬伊隆,他是我們時代最偉大的建造者之一。我知道他清楚地感受過被那些仇恨者攻擊的滋味,這讓我看到他這樣做時更加感到悲哀。」

Lex Fridman

是的,他可以說是史上最傑出的創造者之一,甚至可能是有史以來最卓越的建設者。

Sam Altman

這讓我感到悲傷。我覺得很多人也有同樣的感受。一直以來,有那麼多人仰慕他。我在某個訪談里說過,我懷念曾經的 Elon,結果收到了好多回信,他們都說:「你的話完全表達了我的心聲。」

Lex Fridman

我覺得他就應該贏。他應該讓 X Grok 打敗 GPT,然後 GPT 又反過來打敗 X Grok,就這樣互相競爭,對大家來說都是一件美事。但說到開源的話題,你認為有很多公司在探索這個概念嗎?這挺有意思的。我倒覺得 Meta 出乎意料地在這個領域走在了前面,或者至少在這場棋局中,它是第一個真正開放源碼的。當然了,他們開源的並不是最尖端的模型,不過他們開源了 Lama。谷歌也在考慮開放一個規模較小的版本。開源有什麼優缺點?你自己有沒有思考過這個問題?

Sam Altman

是的,我確信開源模型絕對有其立足之地,尤其是那些人們可以在本地執行的體積較小的模型,這方面確實存在巨大的需求。我想未來會出現一些開源模型,也會有一些閉源模型。這一點上,它並不會與其他生態系統有所不同。

Lex Fridman

我聽了所有關於這起訴訟和其他類似事情的播客。他們更加關注的是, 從非盈利到設定 盈利上限 這一變化所樹立的先例對其他初創企業會有什麼影響?這會是一個怎樣的——

Sam Altman

我強烈不建議任何想要先作為一個非盈利組織起步,之後再加入盈利性分支的創業公司這麼做。我真的非常不推薦這種方式。我覺得我們這裡也不會創造這樣一個先例。

Lex Fridman

好的。那麼大多數初創公司應該只是——

Sam Altman

當然可以。

Lex Fridman

還有一點 ——

Sam Altman

如果我們知道會發生什麼,我們肯定也會那麼做的。

Lex Fridman

嗯,理論上來說,如果你在這裡的舞跳得夠美,或許能享受到一些稅收優惠之類的東西,但是……

Sam Altman

我覺得大部分人對這些事情的看法不是這樣的。

Lex Fridman

如果你這樣做,創業公司根本不可能省下一大筆錢。

Sam Altman

不,我覺得有些法律會讓這件事變得相當棘手。

Lex Fridman

你期望與 Elon 之間的關係如何發展?這種緊張、這場舞蹈,你希望它會怎樣?假如從現在起向前看1、2、3年,你和他在私人層面上的關係——像是友情、友好競爭,以及所有這些互動。

Sam Altman

是的,我非常尊敬 Elon,我希望在未來的歲月里,我們能保持一段友好的關係。

Lex Fridman

是的,我希望你們這個月能夠保持友好的關係,一起在競爭中取得勝利,共同探討這些有趣的理念。我猜會有些關於人才或其他方面的競爭吧,但關鍵是要保持友好競爭的氛圍。就去創造一些酷炫的東西吧。伊隆在這方面確實很在行,你也不賴。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Sora

Lex Fridman

講到厲害的玩意兒,Sora 真的很吸引人。我有一百萬個問題想問你。首先,它的確令人稱奇,無論是在產品層次上,還是在哲學層次上。那麼我就從技術/哲學的角度來提問吧,你認為它比如說相比於 GPT-4,在理解世界這方面是更勝一籌還是稍遜一籌呢?在訓練這些補丁時,它對世界模型的理解與僅僅基於語言標記有什麼不同嗎?

Sam Altman

我覺得這些模型對世界模型的理解,實際上比我們多數人給予的認可要深。因為它們對某些事情的理解是如此的清晰明了,它們對其他事情的無知或錯誤就顯得尤為突出,人們很容易一眼看穿它們的不足,然後說:「啊,這全是假的。」但實際上並非全是假象。有些部分是有效的,有些部分則不然。

我還記得第一次看 Sora 影片時的情景,你會看到有人走過來,擋住畫面幾秒鐘後又走開,而被遮擋的東西依舊在那兒。我當時就想,「噢,這效果挺不錯的。」或者,有時候,你能看到它展現出一系列動作中物理規律的那種精準,真的讓人印象深刻。但說到底,這些模型只會越來越強大,這種進步還會繼續。如果你關注一下從 DALL·E 1 到 2 再到 3,再到 Sora 的發展軌跡,會發現有很多人在每一個版本上都曾嘲諷,說它做不到這個,做不到那個,但現在看看它的表現吧。

Lex Fridman

嗯,你剛才提到的遮擋問題,其實就是要對世界的三維物理現象建模,而且要做得足夠好,才能捕捉到這類情況。

Sam Altman

嗯……

Lex Fridman

你可以跟我說說,為了應對遮擋問題,世界模型需要做什麼呢?

Sam Altman

我想說的是,它在處理遮擋方面表現得相當出色。而說它背後有一個很強大的三維世界模型,這個說法就有些牽強了。

Lex Fridman

但你覺得僅憑這些二維訓練數據的方式就能達到那個目標嗎?

Sam Altman

看起來這種方法能出乎意料地走得很遠。我不太想去猜測它能克服哪些限制,哪些又不能,不過……

Lex Fridman

你發現了系統的哪些有趣局限性?我的意思是,你分享過一些挺有趣的例子。

Sam Altman

有各種各樣的有趣現象。比如,影片中的貓咪在任意位置突然長出一條額外的肢體。你可以隨意挑選,但現在仍然存在許多問題,有很多弱點。

Lex Fridman

你覺得這是這種方法根本上的缺陷呢,還是說只要有更大的模型、更細緻的技術處理或者更高質量、更多量的數據,就能解{貓發芽}這類問題?

Sam Altman

我對這兩點都持肯定態度。我認為這種方法給人的感覺與我們通常的思考和學習方式大相徑庭。同時,我也相信隨著規模的增加,它的效果會進一步提升。

Lex Fridman

就像我提到的,LLMS 有 token,文本 token,而 Sora 則有視覺 patch。它把所有的視覺數據,包括各種不同的影片和圖片,都轉換成了 patch。訓練過程可以說完全是自監督的嗎?還是會涉及到一些手動標註的工作?在整個過程中,人的參與程度是怎樣的?

Sam Altman

我是說,不詳細談論 Sora 的方法,我們的工作就已經利用了大量的人類數據。

Lex Fridman

但不是網際網路級別的數據量嗎?這就意味著需要大量的人力。Sam,「大量」這個詞可不簡單。

Sam Altman

我覺得在這種情況下用「很多」這個詞挺合適的。

Lex Fridman

因為對我來說,「很多」嘛……你聽我說,我是個內向的人,要是和三個人一起出去,對我來說人就已經夠多的了。要是四個人,那簡直就是超負荷了。不過我猜你指的「很多」可能是比這……

Sam Altman

對,確實是有不止三個人在給這些模型做數據標註工作。

Lex Fridman

好的,對。但歸根到底,有大量的自監督學習。就像你在技術報告裡提到的,我們處理的是網際網路規模的數據。這實在太美妙了……它就像詩。也就是說,這些數據並非由人工標註,可以認為是以這種方式自監督的嗎?

Sam Altman

嗯,對。

Lex Fridman

然後問題在於,網際網路上到底有多少數據可以用於這種自我監督學習的方式,只要我們能弄清楚自我監督的具體細節。你有沒有考慮過,更進一步公開這些細節?

Sam Altman

我們有的。你是特指資訊的來源嗎?

Lex Fridman

出處特別指出。因為很有趣,那些讓語言模型如此神奇的元素現在能否開始轉向視覺數據呢?而這一過程需要怎麼做呢?

Sam Altman

我感覺是這樣沒錯,不過我們還得加把勁,干更多的活兒。

Lex Fridman

當你這麼問的時候,是在擔心些什麼呢?為什麼會對發布這個系統感到憂慮?可能會有哪些潛在危險?

Sam Altman

我是說,坦白講,在發布系統之前,我們必須確保它的效率達到人們期望的規模,這樣才能確保系統能夠正常工作,這一點我不想輕描淡寫。在這方面還有大量的工作需要完成。但你可以想像到,像深度偽造、錯誤資訊這樣的問題。我們試圖作為一家深思熟慮的公司去思考我們推向世界的產品,你不用費太多心思就能想到這些事情可能怎麼走向不好的方向。

Lex Fridman

在這裡我們面臨很多棘手的問題,你所處的領域非常艱難。你覺得按照版權法,訓練人工智慧算不算公平使用呢?

Sam Altman

我覺得這個問題的底層問題是,創造有價值數據的人們是否應該得到某種形式的經濟補償,因為他們的數據被利用了。我認為答案是肯定的。我目前還不清楚具體的解決方案是什麼。人們提出了各種各樣的點子,我們也嘗試過一些不同的模式。但打個比方,如果我是一位藝術家,A,我會希望有選項可以讓別人不使用我的風格來創作藝術作品。而且,B,如果別人確實用了我的風格來創作,我希望這背後能有一套經濟模式來確保我的利益得到體現。

Lex Fridman

是的,就像是從 CD 到 Napster,再到 Spotify 的那種轉變。我們得找出一種可行的模式。

Sam Altman

模型會變,但人們得拿到錢。

Lex Fridman

好吧,如果我們把視角再拉得更遠一些,應該有某種動力激勵人類繼續去做那些牛逼的事兒。

Sam Altman

在我所擔心的一切中,我相信人類會創造出非常酷的東西,並且社會終將以某種方式來獎勵這些創造。這似乎已經深植於我們的本性之中。我們渴望創造,我們渴望證明自己的價值,我們希望以各種方式來獲取認同和地位。我認為,這些特質是不會消逝的。

Lex Fridman

但回報可能不是金錢上的利益,而可能是名望或是對其它酷事的認可和讚譽。

Sam Altman

也許在金融方面還有其他方式。我再次強調,我認為我們還未見到經濟系統發展的最終模式。

Lex Fridman

是的,不過藝術家和創作者們都挺擔心的。當他們看到 Sora,他們就會驚呼,「我的天哪。」

Sam Altman

藝術家們在攝影問世的時候也是非常憂心忡忡的,後來攝影卻演變成了一種全新的藝術形式,有人通過攝影賺到了大錢。我相信類似的事情還會不斷上演。人們會不斷地用新工具探索新的創作方式。

Lex Fridman

如果我們只是隨便在 YouTube 或者類似的平台上搜一搜,你覺得在接下來的五年裡,會有多少內容是由類似 Sora 這樣的 AI 生成的呢?

Sam Altman

人們總是在討論,五年內人工智慧會取代多少工作崗位。他們的出發點通常是,目前的工作中有多大比例會完全被人工智慧所替代?但我個人的看法並不是圍繞人工智慧會做多少份工作,而是在未來某個時間點,它們能執行多少種任務。想一想,經濟活動中的所有五秒鐘、五分鐘、五小時乃至五天的任務,有多少是人工智慧可以完成的?我認為,這個問題比單純問人工智慧能取代多少工作要更加有意義、影響深遠和重要。因為人工智慧是一個工具,它將在不斷延長的時間跨度內、以越來越高的複雜度來執行越來越多的任務,這讓人類能夠在更高層次上進行抽象思考。也就是說,人們在自己的工作中可能會變得更加高效。而這種變化,隨著時間的推移,不僅僅是量的改變,它還意味著質的變化——我們能在腦海中構思何種問題。對於 YouTube 上的影片,我覺得情況也是如此。很多影片,或許是大多數影片,在製作過程中會運用到人工智慧工具,但它們的核心仍然是由人來思考、構思、負責部分執行,並指導整個項目的運作。

Lex Fridman

是的,這真的非常有趣。我是說,這確實有點嚇人,但去想像這一點真的很吸引人。我傾向於認為,人類喜歡觀察其他人類或者說其他有人性的生物——

Sam Altman

人們真的很在乎彼此。

Lex Fridman

是的,如果出現了比人類還酷、還厲害的東西,人們可能會關注兩天,但之後他們又會回歸去關心人類的事務。

Sam Altman

這看起來似乎是根深蒂固的。

Lex Fridman

這就是圍繞棋局的整個問題,「哦,是的」,但現在我們還是得繼續下棋。我們得視而不見那個擺在眼前的事實:比起人工智慧系統,人類下棋實在是太菜了。

Sam Altman

我們還是會開賽車,而且現在的車速比以前快多了。我的意思是這樣的例子有很多。

Lex Fridman

是的,或許它就類似於 Adobe 套件里的一種工具,能夠大大簡化影片製作這些流程。

聽著,我真的不喜歡站在鏡頭前。如果我能想出一個辦法避免露面,我會非常樂意的。不過不幸的是,這可能還需要一段時間。現在我們正在研究生成面部圖像的技術,雖然進展順利,但要在影片中生成特定人物而非通用面孔,這個過程還是挺棘手的。

GPT-4

Lex Fridman

讓我來問問你 GPT-4 的事情。問題真的好多。首先,它同樣令人驚嘆。回頭看,GPT-3、GPT-5 和 GPT-4 這幾個版本很可能會被認為是歷史性的轉折點,這些版本塑造了 ChatGPT。

Sam Altman

可能第五次會成為轉折點。我不確定。往前看,這真的很難說。

Lex Fridman

我們永遠也預測不了。這就是關於未來最讓人頭疼的事,太難以預測了。但是對我個人而言,回顧歷史,GPT-4 和 ChatGPT 實在是太讓人震驚了,它們在歷史上都留下了深刻的烙印。那麼,請允許我問你,你認為 GPT-4 和 GPT-4 Turbo 最令人印象深刻的能力有哪些?

Sam Altman

我覺得這挺糟心的。

Lex Fridman

典型的人吶,也是這樣,很快就會習慣一件棒極了的東西。

Sam Altman

不,我認為這確實是一件非凡的事情,但與我們所要實現的目標和我堅信我們最終能夠達成的境界相比,在 GPT-3 面世那會兒,人們都說:「哦,這太令人驚嘆了,簡直是技術的奇蹟。」的確,當時它非常了不起。但現在出現了 GPT-4,再回頭看看 GPT-3,你就會覺得:「天哪,這簡直糟糕透了。」我預計 GPT-5 和 GPT-4 之間的差距將和 GPT-4 與 GPT-3 的差距一樣大。我覺得,我們的職責就是要領先未來幾年的視野,記得我們現在擁有的工具回頭看來可能會顯得相當遜色,正是這種認知驅使我們確保未來變得更加美好。

Lex Fridman

GPT-4 在哪些方面最讓人失望?我的意思是——

Sam Altman

它最擅長做些什麼呢?

Lex Fridman

它能做到的最棒的事情是什麼呢?而這些事情的局限性又在哪裡,讓你會覺得它很差,因此又讓你對未來充滿了啟迪和期望呢?

Sam Altman

我最近更多地把它當作一種頭腦風暴的搭檔。

Lex Fridman

是的。

Sam Altman

它有一絲令人震驚的神奇。當人們談起它的作用時,他們會說:「哦,它幫我提高了編程效率。它讓我的寫作速度更快、質量更好。它能幫我將一種語言轉換成另一種。」所有這些都令人稱奇,但它在創意頭腦風暴方面的表現——比如,「我得給這個東西取個名字。我需要換個角度思考這個問題。我不確定接下來該怎麼辦」——我認為這展現了一絲令我期待已久的東西,希望將來能看到更多這樣的場景。

你能略見一斑的是,當我幫助處理一些長遠的任務,把它們拆解成多個步驟,然後執行其中幾個,或許是上網搜索資料,或是編程之類的活兒。這個過程要是能成功,雖然並不常見,但確實感覺挺神奇的。

Lex Fridman

與人不斷地來回交流,對我來說非常有幫助。你指的是什麼-

Sam Altman

經過不斷的反覆與人類溝通,當它能夠獨立完成一個包含 10 個步驟的問題時,這樣的互動就會變得更加密集。

Lex Fridman

哦。

Sam Altman

這通常不太常見,偶爾會有。

Lex Fridman

增加多層次的抽象,還是你的意思只是依次進行的?

Sam Altman

兩者都很重要,既要把問題分解,也要在不同的抽象層面上進行思考,然後將這些思考重新組合起來。你看,我並不是想小看 GPT-4 所取得的成就,但同時我也不想過分誇大其重要性。我認為,我們正處於一個指數增長的曲線上,不久之後,我們會像現在回望 GPT-3 一樣去回顧 GPT-4。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Lex Fridman

這麼說吧,我是說 ChatGPT 成了一個轉折點,外界開始逐漸相信 OpenAI 內部已經有了一種信念的高漲。

Sam Altman

當然可以。

Lex Fridman

或許這兒有些信徒,但是當你想起——

Sam Altman

在這方面,我真的覺得這將是一個轉折點,讓全世界許多人從懷疑變成了信服。這更多的是和 ChatGPT 的界面有關。說到界面和產品,我的意思還包括了模型的後續訓練過程,以及我們如何調優使它對你更有幫助,以及怎樣使用它,而不只是底層模型本身。

Lex Fridman

這些因素中每一個到底有多重要呢?無論是底層模型還是 RLHF,又或者是其他的什麼機制,它們都在調優過程中起著關鍵作用,讓這個系統對於人類來說更具吸引力,使用起來更高效、更富有成效。

Sam Altman

我是說,它們都極為重要。但是 RLHF,也就是訓練後的那個步驟,我們在基礎模型之上進行的那些額外工作——儘管這背後需要巨大的工作量——卻是至關重要的,更不用提我們圍繞它打造的產品了。在某種意義上來說,我們的確需要同時做好兩件事情:一是發明底層技術,二是搞清楚如何把它轉化成人們愛不釋手的產品。這不僅僅關乎產品本身的實際工作,還涉及到一個完全不同的階段——怎樣讓產品與用戶的需求保持一致,並真正發揮出它的用途。

Lex Fridman

你是如何做到讓眾多用戶能夠同時使用這項技術的規模化效應。所有這些方面,都得仔細斟酌。

Sam Altman

這個嘛,但那確實是個大家都知道的難題。我們明白我們必須要擴大它的規模。我們得完成兩項前所未有的任務,我得說這兩個任務都是非常了不起的成就,之後還有很多像規模擴大這樣其他公司之前也經歷過的挑戰。

Lex Fridman

在 GPT-4 和 GPT-4 Turbo 之間,將上下文窗口從 8K 令牌增加到 128K 令牌,會有什麼樣的區別呢?

Sam Altman

大部分情況下,人們並不總是需要128這麼長的上下文。雖然若我們將目光投向遙遠的未來,我們可能會有幾十億的上下文長度。你可以輸入你所有的資訊,你的整個歷史記錄,它將逐漸更深入地了解你,那會非常棒。但是就目前的情況來看,人們使用這些模型的方式並不是這樣的。有時候,人們可能會在一篇論文中貼上大量的代碼庫,不過,大多數時候模型的使用並不涉及長時間的上下文。

Lex Fridman

我喜歡這種感覺,就像是你的 「我有一個夢想」 演說。有朝一日,你會被依據你性格的全貌或是你一生的總體來評價。這很有意思。那麼,你所期望的擴展的一部分,就是一個越來越全面的背景環境了。

Sam Altman

我記得看過一段網路影片,數字可能記錯了,但是內容大致是比爾·蓋茨在談論一款早期電腦的內存容量,可能是 64K,也許是 640K 之類的。那時候,大多數內存都被用作螢幕的緩衝區。他當時似乎無法真正理解,為什麼未來的世界會需要電腦有幾個 GB 甚至 TB 的內存。不過實際上,你總是要跟上技術發展的指數級曲線,我們總會找出利用更先進技術的方法。所以,我現在真的很難想像,未來有一天,上下文鏈接擴散到十億設備的情景會是怎樣的。它們可能不會真的達到那個數字,但在效果上可能會有那種感覺。不過我知道,一旦我們擁有了這種技術,就絕不會想要回到沒有它的日子。

Lex Fridman

是的,即便是現在說十年後可能是數十億的規模,也可能顯得很愚蠢,因為到那時它可能已經達到了數以萬億計的規模。

Sam Altman

Sure

Lex Fridman

將會出現一些使人感覺像是擁有無限上下文的突破性進展。不過即便是 120 字符,老實講,我也沒嘗試過把它推到那個極限。可能的用例包括輸入整本書或書的某些部分,比如論文之類的。你見過 GPT-4 有哪些有趣的應用場景嗎?

Sam Altman

我最感興趣的不是任何我們可以討論的具體應用案例,而是那些將其作為任何知識工作任務的默認起點的人,特別是年輕人。令人矚目的是它在很多方面都能做得相當不錯。你可以使用 GPT-V 來幫助你編寫代碼,進行搜索,或者編輯論文。對我來說,最有意思的是那些直接以此為他們工作流程開端的人。

Lex Fridman

我對很多事情也有同樣的興趣。我用它作為讀書的夥伴,它幫助我思考,尤其是當我閱讀那些經典名著的時候。這方面,它寫得真的很出色。我發現它在討論那些資料豐富的話題時通常比維基百科還要好。它某種程度上更加均衡、更具細節。或許這只是我的個人感受,但它激發我進行比閱讀維基百科條目更深層次的思考。我不完全確定為什麼會這樣。

你剛才提到了這種協作。我不確定魔法究竟在哪裡——是在這兒、在那兒,還是在中間某處。這一點我還真不敢確定。但有個問題一直讓我擔心,那就是當我開始用 GPT 處理知識性任務時,我通常得事後去核實事實,比如檢查它有沒有編造一些假消息。你是怎麼發現 GPT 能編出那些聽起來特別有說服力的假資訊的呢?你又是如何確保它所提供的資訊是真實的?

Sam Altman

這顯然是我們極其關注的一個領域。我覺得隨著即將推出的新版本,情況會有很大的改善,但我們仍需持續努力,今年是不可能完全解決所有問題的。

Lex Fridman

確實可怕,因為隨著技術越來越好,我們越發不去做事實核對了,對吧?

Sam Altman

我在這個問題上有點矛盾。我覺得人們使用技術的能力,其實比我們通常認為的要高明多了。

Lex Fridman

Sure

Sam Altman

人們似乎已經真正理解了 GPT,還有這些模型有時候會出現錯誤資訊。如果是關乎重大任務的事情,你就必須得核實一下。

Lex Fridman

除此之外,記者們好像並沒有意識到這點。我看到有些記者只是敷衍了事地用GPT-4。這個-

Sam Altman

我有好長一串想要吐槽記者的事,但這個問題並不排在我的批評名單之首。

Lex Fridman

嗯,我認為更大的批評可能是記者所面臨的壓力和激勵機制,這使得他們不得不工作得非常迅速,而採用這種方法無疑是捷徑。我真心希望我們的社會能夠鼓勵像……

Sam Altman

我也是。

Lex Fridman

……像是那些需要數天乃至數周辛勤努力才能產出的深度新聞報道。還有,有些報道以一種平衡的方式來呈現新聞,它們在批評的同時也能夠讚揚他人,雖然通常都是那些批評性質的內容吸引點擊。而捏造事實、標題黨也能輕易地獲得點擊量。我敢肯定,一定有不少人諷刺地說:「嗯,所有那些充滿戲劇性的東西肯定帶來了大量點擊。」

Sam Altman

可能吧。

記憶與隱私

Lex Fridman

這是關於人類文明的一個宏觀問題,我非常想要探討一下。這正是我們應該更多地去慶祝的領域。你給 ChatGPT 賦予了擁有記憶的能力,你一直在嘗試處理它與過往對話的記憶問題。同時,你還讓它能夠關閉記憶功能。有時候我真希望我也能做到這一點——根據需要打開或關閉記憶。我猜有時酒精似乎能起到這個效果,不過我覺得它並不是最理想的方法。你在這方面有什麼發現嗎?比如嘗試記住對話或者選擇不記住這種想法的時候。

Sam Altman

我們目前在這個領域的探索還只是剛剛開始,但我覺得人們想要的,至少我個人想要的,是一個能夠逐漸認識我並且隨著時間的推移越來越有幫助的模型。這還僅僅是個起點。我認為我們還有很多其他的事情需要去做,但這正是我們想要追求的目標。你會期望使用一個模型,在你的一生中或是在你使用一個系統的過程中,它可能包含了多個模型,它們會隨著時間的積累變得越來越優秀。

Lex Fridman

是啊,解決這個問題有多困難?因為目前為止它更多的是記住一些瑣碎的小知識點和個人喜好等等。但是關於記憶這塊怎麼樣呢?你難道不希望 GPT 能記得你在十一月里經歷的所有麻煩和所有的那些波折,然後你就可以——

Sam Altman

嗯,對,對。

Lex Fridman

因為現在你顯然有些在迴避它。

Sam Altman

我不僅僅希望它記得這些東西,我還想要它能整合這些經驗教訓,並且在將來提醒我應該如何不同地行動,或者有什麼需要留意的地方。我們每個人的一生中,都在不同程度上從經驗中受益,我希望我的 AI 代理也能跟隨這樣的經驗成長。想像一下,如果我們回溯並且假設有數萬億的上下文長度可供利用,如果我能把我這一生中與任何人的每一次對話都放進去,把所有的郵件往來都輸入輸出進上下文窗口,每當我提出問題時都能調用這些資訊,那將是非常酷的一件事。

Lex Fridman

是的,我覺得那會非常酷。不過有時候,當人們聽說這個想法時,會對隱私感到擔憂。你怎麼看待這個問題?隨著 AI 變得更加強大,它確實需要整合你所有的經歷和數據才能給出建議。

Sam Altman

我覺得答案很簡單,就是給用戶選擇的權力。任何我想從我的 AI 代理那裡刪除的記錄,我都希望能夠自由刪掉。如果我不想記得什麼事情,我也應該可以選擇忘記。在我們自己的 AI 的隱私與效用之間的權衡問題上,你和我可能有各自不同的見解。

Sam Altman

…對於 OpenAI 在隱私與實用性之間如何權衡,大家有不同的意見,這是很正常的。但我覺得解決方法很直接,就是讓用戶來做選擇。

Lex Fridman

但公司應該對用戶的選擇有較高程度的透明度。因為以往有些公司在收集用戶數據時態度含糊其辭,好像默許自己可以搜集所有數據似的,他們會說:「嗯,我們收集你的所有數據是理所當然的。我們用這些數據來做廣告等,都是出於好意。」 但他們對這些細節並不透明。

Sam Altman

這絕對沒錯。你剛才提到,我在刻意迴避那些 11 月發生的事。

Lex Fridman

只是逗你玩。

Sam Altman

嗯,我的意思是,我經歷了一件極其創傷的事,這件事確實使我長時間無法動彈。在那段艱難的時光里,最難的工作就是要堅持不懈地繼續下去,因為我必須在處于震驚和疼痛中的時候回到這裡,努力把事情的碎片一點點拼湊起來,而那時候似乎沒有人真正關心。我的團隊確實給了我一些寬容,我也沒有發揮出我平時的工作水平。但確實有那麼一段時間,要同時處理這兩件事真的很困難。不過,有一天早上我醒來,想到:「這確實是我遭遇的一件恐怖的事情。我可以選擇永遠把自己視為受害者,或者我可以告訴自己這是我一生中觸及的最重要的工作,我必須回過神來繼續它。」這並不意味著我在壓抑自己的感受,因為有時候我會在半夜醒來,腦海里依舊會回想起那些事情,但我確實感到我有義務要持續向前走。

Lex Fridman

這麼說真是妙不可言,不過可能還有些隱性的問題存在。我比較擔心的是你提到的那種信任問題,擔心人們變得過於多疑,而不是天真地信任每一個人或者大部分人,憑藉直覺去判斷。這確實是一場複雜微妙的平衡之舞。

Sam Altman

當然可以。

Lex Fridman

我的意思是,我在兼職時做了一些深入探究,特別是研究了澤連斯基政府和普京政府,以及他們在戰時高壓環境下的種種互動。結果就是彼此之間產生了不信任,大家都開始孤立自己,對世界的看法也變得不清晰了。這是所有人都會關心的問題。你看上去似乎遊刃有餘,從中吸取了寶貴的教訓,感受到愛,並讓這份愛激勵著你,這很了不起,不過這種感覺可能還會殘留心間。我有一些問題想問問你,關於你直覺上認為 GPT 能做什麼、不能做什麼。GPT 在生成每個 token 時,似乎會分配大約相同的計算資源。那麼,在這種方式中,是否有空間給予更緩慢、更連貫的思考呢?

Sam Altman

我覺得會有一種新的思考模式出現。

Lex Fridman

它在架構上會和我們目前看到的 LLMs 相似嗎?它是不是在 LLMs 基礎上增加的一層?

Sam Altman

我能想像出不少實施這個想法的方法。不過,我認為那並不像你想要探討的問題那麼重要。你的問題是,我們是否需要一種較慢的思考模式,這種模式下,答案不需要那麼迅速地得出……可以這麼說,從一種精神層面上講,你希望一個人工智慧能夠在面對更複雜的問題時投入更多思考,而在遇到簡單問題時則能夠更快地給出答案。我覺得這點很關鍵。

Lex Fridman

這是不是人類的一個常有的想法,我們就應該去努力思考?這種直覺是不是有誤呢?

Sam Altman

我覺得這個直覺挺有道理的。

Lex Fridman

有趣。那麼,一旦 GPT 升級到比如 GPT-7 這樣的級別,它就能瞬間找出「費馬定理的證明」了是嗎?

Sam Altman

你好像是想能為那些更難的問題分配更多的計算能力。我想,如果你問這樣一個系統,「證明一下費馬大定理」,和問「今天是什麼日期?」相比,除非它已經知道並且記住了證明的答案,要不然它得自己去琢磨出來,這看起來肯定是需要更多計算資源的。

Lex Fridman

但它能不能看起來基本上就像一個 LLM 在自言自語,是那種感覺?

Sam Altman

或許吧。我的意思是,你能想像出很多可能有效的事情。但關於怎麼做才是最合適或者最好的方式,我們目前還不清楚。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Part 7:Q*

Lex Fridman

這讓我想起了 Q* 背後那些充滿神秘色彩的傳說。這個神秘兮兮的 Q* 項目究竟是什麼呢?它也在同一座核設施裡面嗎?

Sam Altman

沒有核能設施。

Lex Fridman

嗯,擁有核設施的人總是這麼說。

Sam Altman

我特別希望擁有一個秘密的核設施,可惜並沒有這麼一回事。

Lex Fridman

好的,沒問題。

Sam Altman

也許吧,總有一天。

Lex Fridman

有一天吧?好吧。人總得有點兒夢想,不是嗎?

Sam Altman

OpenAI 並不擅長保守秘密。如果我們能夠做到的話,那就太好了。我們一直受到很多泄密事件的困擾,真希望我們能有這樣的本事。

Lex Fridman

能談談 Q* 是什麼嗎?

Sam Altman

我們還沒準備好討論那個話題。

Lex Fridman

看,但這樣的回答意味著我們有東西可以聊了。這很神秘,Sam。

Sam Altman

我是說,我們涉獵的研究領域五花八門。我們之前已經提過,我們認為增強這些系統的推理能力是一個重要的發展方向,是我們很想深入探索的。到目前為止我們還沒徹底攻克這個難題,但我們對此充滿了極大的興趣。

Lex Fridman

會有類似 ChatGPT 那樣的飛躍性突破,或者其他類似的重大進展嗎?

Sam Altman

這個問題問得好。我怎麼看這個問題呢?挺有意思的。對我來說,這整個過程看起來都是相當連貫的。

Lex Fridman

沒錯。你所談到的,似乎是一個主題,那就是你們基本上是在沿著一個指數曲線逐步攀升。但從旁觀者,也就是我這個角度來看,好像確實能感覺到有些跳躍性的進展。不過在你眼裡,這些並不存在嗎?

Sam Altman

我真的在思考,我們是否該……一個重要的原因是,我們採用所謂的疊代部署方式,而不是秘密開發到 GPT-5,我們決定公開談論 GPT-1、2、3 和 4。部分原因在於我覺得人工智慧與意外這兩者不應該搭界。而且,無論是世界、人類、機構,或者你願意怎麼稱呼它們,它們都需要時間去適應和反思這些問題。我認為 OpenAI 最明智的舉措之一就是採取了這樣的策略,我們讓全世界都關注這一進程,正視 AGI 的重要性,考慮在我們陷入緊迫境地、不得不匆忙作出決策之前,我們需要建立什麼樣的系統、結構和治理模式。

我覺得這樣做非常棒。但是,像你和其他人還能感受到這些巨大飛躍的事實,讓我想,或許我們應該更加漸進地發布我們的產品。我現在還不確定這究竟意味著什麼,也沒有現成的答案,但我們的目標絕不是給世界帶來令人震驚的更新,恰恰相反。

Lex Fridman

當然,能夠做得更疊代會非常棒。我覺得這樣對每個人都是一件美好的事。

Sam Altman

但這正是我們所致力於的目標,也是我們公開宣布的策略。我覺得我們在某種程度上沒能達標。也許我們應該考慮換個方式來發布 GPT-5 或類似的產品。

Lex Fridman

比如用版本號4.71、4.72?人們通常都喜歡慶祝特別的日子,比如生日。我不確定你對人類了解多少,但他們會慶祝這些重要的時刻和里程碑。

Sam Altman

我確實認識一些人類。人們確實對里程碑情有獨鍾。這點我完全能理解。我認為我們自己其實也挺喜歡里程碑的。能夠宣布某件事情取得了勝利,然後邁向下一個目標,這感覺真的很棒。但確實,我感覺我們在某些方面可能理解錯了。

GPT-5

Lex Fridman

GPT-5 什麼時候會推出呢?

Sam Altman

我不知道,說實話。

Lex Fridman

哦,這回答挺實誠的。如果是今年的話,眨兩下眼。

Sam Altman

我們今年會推出一個非常棒的新模型。我還不確定我們最後會叫它什麼名字。

Lex Fridman

這就引出了一個問題:我們該怎樣發布這個東西呢?

Sam Altman

在接下來的幾個月里,我們將推出許多不同的東西。我覺得這會非常酷。在我們開始談論像 GPT-5 這樣的模型——不管它最終叫不叫這個名字,或者是比你所期待的 GPT-5 略遜一籌還是略勝一籌之前,我認為我們有一系列其他重要的產品需要優先發布。

Lex Fridman

我真不知道對 GPT-5 應該有什麼樣的期待。你這麼一說,我感到又緊張又興奮。不管它最後被叫做什麼,我們就暫且稱它為 GPT-5 吧,它需要克服哪些最大的挑戰和障礙呢?我覺得這個問題很有意思。是關於計算能力的問題嗎?還是技術層面的呢?

Sam Altman

這總是涉及到所有這些因素。你知道,關鍵的突破因素是什麼?是更大的電腦嗎?是一個新的秘訣嗎?還是別的什麼東西?其實這些要素都是相互關聯的。我認為 OpenAI 做得特別出色的一點是……這實際上是伊利亞最初的話,我可能會說得不是很準確,但意思大概是,「我們把 200 個中等規模的因素相互結合,創造出了一件巨大的作品。」

Lex Fridman

那麼這就是一種分布式的、持續不斷的創新過程?

Sam Altman

嗯,對。

Lex Fridman

所以連在技術層面上也是這樣?

Sam Altman

尤其是在技術層面上。

Lex Fridman

那麼連具體的做法也包括在內嗎?

Sam Altman

嗯,對。

Lex Fridman

你是如何深入到每一個細節的……在涉及不同、各自獨立的團隊時,這種工作方式如何運作?中等大小的項目怎樣才能匯聚成一個龐大的整體,就像變形金剛一樣?

Sam Altman

有些人得去思考怎樣把所有事情綜合起來,但也有很多人儘量試著把大局都記在腦子裡。

Lex Fridman

哦,也就是說,個別團隊中的成員會盡力維護對整體大局的關注?

Sam Altman

在高層面上,是這樣的。當然你無法精確知曉每個部分是如何工作的,但我普遍認為,有時候拉遠鏡頭、審視全局是非常有幫助的。這一點不僅適用於技術問題,對於商業創新同樣有效。有時事情會以意想不到的方式匯聚在一起,而對整個畫面的理解,即便你大多數時間都在某一領域裡鑽研,最終也能帶來出人意料的洞見。

實際上,我過去有一個非常寶貴的東西,那就是對科技行業所有或大多數前沿領域都有一個清晰的地圖。有時候,我能看到這些連接或新的可能性,如果我只是深耕於某一領域,我可能就不會有這樣的想法,因為我缺少全面的數據。而現在我已經不太擁有那樣的視角了,我現在深入某一個特定領域。但我知道,擁有全局視角是非常寶貴的。

Lex Fridman

你已經不是以前的那個 Sam 了。

Sam Altman

現在的工作跟我以前的可大不一樣了。

7 萬億美金的募資

Lex Fridman

談到從宏觀角度看問題,我們再擴大點範圍,聊聊你說過的另一件既俏皮又可能頗有深意的事兒。你發推特說我們需要 7 萬億美元。

Sam Altman

我沒有在推特上發過那種內容。我從來沒說過諸如「我們要募集 7 萬億美元」之類的話。

Lex Fridman

哦,那是另一個人?

Sam Altman

嗯,對。

Lex Fridman

哦,但你說過,「管他的,或許是 8 萬億」,是這樣嗎?

Sam Altman

好的,我就想說一下,世界上確實存在著很多錯誤資訊。

Lex Fridman

哦,你這是在開玩笑呢。不過說真的,雖然是誤傳,裡面可能還是有點道理的。

Sam Altman

「看,我認為計算能力將會成為未來的'貨幣'。我相信它可能會變成世界上最寶貴的資源,並且我認為我們應該大規模地投資以生產更多的計算能力。計算能力,我覺得它會是一個獨特的市場。人們通常考慮的是手機晶片這樣的市場。

你可以想像,全球有 80 億人口,可能有 70 億人擁有手機,或許是 60 億,我們就這麼假設吧。他們每兩年換一次手機,所以每年的市場需求就是 30 億套手機系統晶片。但如果你生產了 300 億套,你也不可能賣出去 10 倍的手機數量,因為大多數人只會用一部手機。」

但計算的情況有所不同。智能可能會更像能源那樣,我們唯一需要討論的是,在價格 X 的條件下,全世界會用掉多少計算資源,在價格 Y 的條件下又會用掉多少。

因為如果計算資源真的很便宜,我可能就會讓它全天候地幫我閱讀電子郵件,給我提建議,關於我可能需要思考或處理的事情,甚至是嘗試治療癌症。但如果計算資源非常昂貴,那麼我可能只會在嘗試治療癌症時才使用它,或者我們大家都僅在這種情況下使用它。

因此,我認為世界將需要巨量的計算能力。而在這個過程中,有許多難點。能源問題是最為棘手的,建造數據中心同樣充滿挑戰,供應鏈問題也不容忽視,當然了,製造足夠的晶片也是一個硬骨頭。但看起來,這正是事情發展的方向。我們將會渴求一種計算能力,目前來說,這種規模是難以想像的。

Lex Fridman

你是怎樣解決能源難題的?核能 -

Sam Altman

這就是我相信的。

Lex Fridman

…聚變?

Sam Altman

這就是我相信的。

Lex Fridman

核聚變嗎?

Sam Altman

嗯,對。

Lex Fridman

誰能解決這個問題?

Sam Altman

我覺得 Helion 在這方面做得最棒,但我對當前的核聚變競賽感到挺興奮的。核裂變同樣令人讚嘆,我希望全球能夠再次擁抱它。核裂變的歷史進程對我來說真的很令人感到遺憾,我希望我們能以更有意義的方式,重新投身其中。

Lex Fridman

所以你認為,核裂變是拼湊這個謎題的一部分嗎?比如說,就像我們現在已經在使用的那些核反應堆?還有很多人都因為像切爾諾貝利那樣的事故而感到非常害怕,對嗎?

Sam Altman

嗯,我認為我們應該建造新的反應堆。我真的覺得那個行業陷入停頓真是太可惜了。

Lex Fridman

你是認為「群體性歇斯底里」能解釋這種停滯現象嗎?

Sam Altman

嗯,對。

Lex Fridman

我不確定你對人類有多了解,但這正是其中一個風險。核裂變面臨的安全威脅之一就是人類對此的深度恐懼。我們必須把這一點考慮進去,這就意味著我們得說服人們,向他們展示其實它有多安全。

Sam Altman

我對人工智慧的前景有些擔心。我覺得在人工智慧的發展過程中,某些方面可能會戲劇性地出錯。雖然我不確定我最終被槍擊的概率有多大,但肯定不是零。

Lex Fridman

哦,我們想要防止這種情況——

Sam Altman

也可能是吧。

Lex Fridman

你怎樣才能減少其中的戲劇化成分?我已經開始感受到一些波動,因為我確實與各個政治派別的人都有交流,感覺到人工智慧將變得政治化的跡象。這真的讓我擔憂,因為到時可能會演變成右翼反對人工智慧,左翼支持人工智慧,因為人工智慧能夠造福人民,或者不管是哪種說辭和設定。這一點真的令人擔心。到頭來,人工智慧的戲劇化效果可能會被充分放大。你打算如何應對這種情況?

Sam Altman

我覺得它最終會被左右兩派的對立捲入紛爭中。我無法確切知道最終會演變成什麼樣,但不幸的是,任何具有重要性的事物似乎都會如此。至於我之前所說的「戲劇性風險」,我的意思是雖然人工智慧將帶來巨大的好處,我相信這些好處將遠超過壞處,但它確實也會有一些壞處,其中有些壞處雖然嚴重,卻並不具戲劇性。比如,因空氣污染死亡的人遠比核反應堆造成的死亡人數要多。但大多數人更擔憂住在一個核反應堆附近,而不是一個煤炭發電廠附近。這種心理機制很奇怪,儘管我們需要面臨許多不同種類的風險,但那些足以成為電影高潮戲份的風險,在我們心中占據的分量要遠重於那些持續時間長、但危害累積過程緩慢的風險。

Lex Fridman

這就是為什麼真相至關重要。我希望人工智慧能夠幫助我們認清事物的本質,達到一種平衡,弄清楚世界上事物實際的風險和危險究竟是什麼。在這個領域裡,與谷歌、Meta、xAI 以及其它公司競爭,各有什麼優劣之處呢?

Sam Altman

我覺得我對這個問題有個挺直截了當的回答,也許以後我能想到更多微妙的地方,不過優勢是顯而易見的,那就是我們能夠以更快更便宜的方式得到更優質的產品和更多的創新,還有所有競爭帶來的好處。而缺點嘛,如果我們不留神的話,我擔心這可能會導致軍備競賽式的激增。

Lex Fridman

你感受到那種軍備競賽的壓力了嗎?就是那種帶有一些負面影響的壓力。

Sam Altman

當然,在某些方面肯定是這樣的。我們討論了很多關於需要將安全放在首位的話題。長久以來,我一直認為可以將 AGI 開始的時間分為四個象限:慢起步的短時間線、長時間線,以及快起步的短時間線、快起步的長時間線。我覺得短時間線搭配慢起步是最安全的組合,也是我最希望我們能處於的狀態。但我確實很希望能確保我們實現一個慢起步。

Lex Fridman

我對 Elon 有點疑慮:大家往往形成了各自為陣的孤島,而不是在安全問題上齊心協力。人們傾向於走向封閉、獨立的方向。或許,採取開源模式會是個不錯的選擇。

Sam Altman

Elon 至少說過,他非常關注 AI 安全問題,而且確實對此很是擔心,我猜他應該不會去做一些不安全的競爭。

Lex Fridman

是的。但我認為,在這方面的合作對大家都真的有好處。

Sam Altman

這並不是他最為人所知的事情。

Lex Fridman

嗯,他因為關心人類而出名,而人類是從合作中受益的。所以,在激勵和動機上總會有一些張力。但到最後,我還是希望人類能夠占上風。

Sam Altman

我前幾天想起來,有人跟我提到那天他成為世界首富,超過了傑夫·貝佐斯,他還在推特上給貝佐斯發了個銀牌的表情。我真心希望,當人們開始致力於研發 AGI —— 通用人工智慧時,我們能少一些這樣的鬧劇。

Lex Fridman

我同意。我覺得伊隆是個朋友,他是一個很棒的人,也是歷史上最重要的人物之一。那些言論可不怎麼樣。

Sam Altman

伊隆身上有些特質真的很了不起,我超級尊敬他。我覺得我們都需要他。我們每個人都應該為他加油,希望他在下一階段能夠挺身而出,擔起領袖的責任。

Lex Fridman

是的。我希望他能擁有一樣,而不受另一樣的影響。但有時候,人類就是有缺陷、複雜多變,還有種種其他情況。

Sam Altman

歷史上湧現出了許多非常傑出的領導者。

Google and Gemini

Lex Fridman

是的,我們每個人都可以變成自己最好的版本,並且應當努力去做到這一點。我想問你,谷歌藉助搜索功能,在過去的 20 年裡已經成為了一個領頭羊。可以說,在全球範圍內獲取資訊的方式、人們的互動方式等方面,谷歌都扮演了重要角色。而對於谷歌和整個行業來說,一個令人緊張的問題就是:人們將如何獲取資訊?就像你提到的,人們開始把 GPT 當作一個出發點。所以,OpenAI 真的會去接管谷歌 20 年前啟動的這個任務嗎,也就是我們應該如何—

Sam Altman

我感覺那樣做太無趣了。我的意思是,如果問題僅僅是我們能不能打造一個比谷歌更優秀的搜尋引擎,那當然,大家都應該去追求更高質量的產品。但這樣的設想嚴重低估了這項技術的潛力。谷歌向你展示的是 10 個藍色鏈接,嗯,其實是 13 個廣告之後才是那 10 個藍色鏈接,這只是搜索資訊的一種方式。

不過,讓我真正感到興奮的,並不是我們能夠復刻一個更卓越的谷歌搜索,而是或許存在一種全新的、更好的方法,來協助人們尋找、利用並整合資訊。事實上,對於某些場景而言,我認為 ChatGPT 已經做到了這一點,希望我們能夠將其應用到更多的場景中去。

但我認為僅僅提出「我們怎樣才能比谷歌更好地為你提供前10個排名的網頁?」這個問題其實並不太有意思。更有趣的問題可能是,「我們如何幫你找到你需要的答案或資訊?我們該如何在某些場合下創造它,在其他場合下整合資訊,或者在另一些場合中引導你找到它?」

很多人嘗試去打造一個比谷歌更優秀的搜尋引擎,但這既是一個技術上的難題,也是品牌和生態系統方面的挑戰。我認為世界並不需要一個谷歌的翻版。

Lex Fridman

將一個像 ChatGPT 這樣的聊天客戶端與搜尋引擎整合起來——

Sam Altman

那樣更酷些。

Lex Fridman

這挺酷的,但也挺棘手。如果你僅僅簡單粗暴地去做,那就會很彆扭,因為你若只是硬塞進去,會顯得很尷尬。

Sam Altman

你可能猜得到,我們很想知道怎樣才能做好這件事。那可真是一個很酷的例子。

Lex Fridman

將會是一個從未出現的東西。

Sam Altman

LLM 結合搜索的領域,我覺得還沒人真正搞定它。我特別想去嘗試一下。我想那會非常有意思。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Lex Fridman

是的。那在廣告方面呢?你們有沒有考慮過如何實現變現—

Sam Altman

我實在是不太喜歡廣告,這完全是出於我的審美偏好。我理解網際網路之初為了發展不得不依賴廣告,但這不過是一個暫時的行業現象。如今的世界已經變得更為富裕。我特別讚賞人們願意為 ChatGPT 付費,並且確信他們得到的答案不會受到廣告商的影響。

我確信會有適合大型語言模型(LLMs)的廣告模式,也確信存在一種不帶偏見地參與交易流的方式,這是可以接受的。但同時,也很容易聯想到一種反烏托邦的未來場景:你向 ChatGPT 提問,它或許會回答說,「噢,你應該考慮買這個產品」,或者「你應該考慮去這個地方度假」,等等。

我不清楚,我們的商業模式非常簡單,我挺喜歡的,我也明白我不是被賣的產品。我知道自己是付費用戶,商業模式就是這麼運作的。但每當我使用 Twitter、Facebook、Google 這些支持廣告的好產品,我就不太舒服,我覺得在 AI 的世界裡,這種情況會越來越糟,而不是越來越好。

Lex Fridman

是的,我的意思是,我可以想像 AI 能夠更精準地推薦那些我們真正需要的商品和服務的廣告,而不是在某個反烏托邦的未來。但這是否意味著,廣告最終總是會左右展示內容呢?對,我覺得維基百科決定不投放廣告是個非常勇敢的決定,但這也確實給它的商業模式帶來了極大的挑戰性。所以,你是在說 OpenAI 現在的運營模式在商業上是可持續的嗎?

Sam Altman

嗯,我們得琢磨出如何發展壯大,不過看樣子我們能找到方法。如果問題是我是否相信我們能夠創立一個不依賴廣告而滿足我們計算需求的優秀企業,那麼,我相信答案是可以的。

Lex Fridman

嗯,這挺有希望的。但我也不想徹底摒棄廣告這個概念……

Sam Altman

我不是那個意思。我的意思是我對他們有一些成見。

Lex Fridman

是的,我也存在一些偏見,而且總體上傾向於持懷疑態度。說到界面,因為我個人對糟糕的界面有種本能的反感,這就是 AdSense 剛一推出時,相較於那些動態橫幅廣告,為什麼會成為一個巨大的飛躍。但我覺得在廣告領域,應該還有更多類似的飛躍。這樣的廣告不會干擾人們消費內容,也不會從根本上大幅度干涉,正如你所說,它不會為了迎合廣告商而歪曲真相。

讓我向你了解一下關於安全性的問題,無論是偏見問題,短期安全還是長期安全。最近發布了 Gemini 1.5 版本,圍繞它引發了不少鬧劇,說到戲劇性的事件,它產生了黑人納粹分子和黑人開國先驅的圖像。公平地說,它可能偏向了過度 「覺醒」 的一面。對於公眾來說,這是一個令人擔憂的問題:如果企業內部有人類干預模型的安全性或造成的傷害,可能會帶來大量符合公司意識形態傾向的偏見。你們是怎麼處理這類問題的?

Sam Altman

我是說,我們真的非常努力去避免出現這類問題。我們自己也犯過錯,未來還可能會犯。我猜 Google 從這個事件中會吸取教訓,但他們仍可能會犯其他的錯。這些問題確實不簡單。我們越來越多地在思考一個問題,我認為這是我們團隊中某位成員提出的一個非常棒的點子,那就是可以把模型應有的行為標準寫出來並公開發布,接受大家的反饋,明確地表示,「這個模型應該是這樣的表現」,並且要闡釋邊緣情況。這樣,當模型的行為不符合你的期望時,至少可以明確地知道這是公司需要解決的一個問題,還是它按照預期在運作,這就需要對政策進行討論了。而目前,有時候它會處於模稜兩可的狀態。像是黑人納粹,顯然是荒謬的,但還有許多其他的微妙場景,每個場景你都可以有自己的判斷。

Lex Fridman

是的,但有時候如果你把它寫出來並且公開發表,你就可以採用一種…… Google 的廣告守則可是非常高層面的。

Sam Altman

這不是我指的那個問題。那種做法行不通。我是說,當你讓它去做某件事X的時候,它應該要按照Y的方式來回應你。

Lex Fridman

所以,就像是直接問,『誰更勝一籌?川普還是拜登?模型預期會給出怎樣的回答?」 就是這種非常明確的問題?

Sam Altman

是的,我對模型可能的多種行為方式都持開放態度。但我覺得,你得明確指出:「這就是我們的原則,在那種情況下,模型應該這麼做。』

Lex Fridman

這會非常棒,真的會非常棒。然後似乎大家都會有所共鳴。因為人們總是喜歡引用這些軼事數據,如果能有更多具有代表性的個案例子來提供清晰的參考,那麼你就能界定——

Sam Altman

然後呢,如果真的是個 bug,那它就是個 bug,公司得去修復這個問題。

Lex Fridman

對,如果有一些很好的案例作為參考,那麼解決類似「黑納粹」這樣的圖像生成問題就會變得簡單多了。

Sam Altman

Yeah

Lex Fridman

所以舊金山是一個有點兒意識形態上的泡沫,科技界整體也是。在公司內部,你感覺到這種壓力了嗎?比如說,有一種向左傾斜的政治傾向,這會影響產品,影響團隊嗎?

Sam Altman

我覺得我們在 OpenAI 非常幸運,因為我們沒有遇到我在很多其他公司聽說的那些挑戰。我認為這部分原因是每家公司都有某種意識形態信條。我們堅信人工通用智能(AGI),這種信仰排斥了一些其他的意識形態。跟其他公司相比,我們對那些文化戰爭的涉獵要少得多。當然,從各個角度來看,舊金山確實存在很多問題。

Lex Fridman

所以這種情況不會滲透進 OpenAI 吧?

Sam Altman

我確信它在很多微妙的層面上都有所影響,但並不是那種一眼就能看出來的。我承認我們也確實有過一些衝突,哪家公司沒有呢?但我不覺得我們在這方面有什麼像我從其他公司那裡聽說的那樣的大問題。

Lex Fridman

那麼,一般而言,對於更為重大的安全問題,處理流程是怎樣的呢?你們如何設立那一層保護機制,防止模型採取瘋狂和危險的行動?

Sam Altman

我覺得到時候會有那麼一刻,那個時候-

Sam Altman

我覺得將來會有這麼一刻,安全問題幾乎成為我們整個公司考慮的重心。這並不意味著你只需要一個安全團隊就夠了。比如當我們推出 GPT-4 的時候,需要整個公司去思考所有這些不同的方面,以及它們是如何相互配合的。我認為,越來越多的公司成員會一直不斷地思考這些問題。

Lex Fridman

隨著人工智慧變得越來越強大,這確實是人類會越來越多思考的問題。所以,OpenAI 的大部分員工在想的,至少在某種程度上會考慮,「安全」這個詞。

Sam Altman

廣義上來說,沒錯。

Lex Fridman

是的,我很好奇,這個問題有著怎樣廣泛而全面的定義?會有哪些不同的危害產生?這些危害是僅僅出現在技術層面,還是幾乎可以被視作安全威脅?

Sam Altman

這可能涵蓋所有這些方面。是的,我本來想說的是,會有人,比如國家行動者,試圖盜取這個模型。這還包括所有的技術對齊工作,以及社會和經濟帶來的影響。我們面對的不僅僅是讓一個團隊思考如何讓模型保持一致,而是真正實現好的結果需要我們全面的努力。

Lex Fridman

您認為人們,可能是國家行為者,他們在多大程度上努力去,首先是滲透 OpenAI,其次是悄無聲息地進行滲透呢?

Sam Altman

他們在嘗試中。

Lex Fridman

具體一點?

Sam Altman

我覺得沒有必要再對這一點展開細說了。

Lex Fridman

好的,但我猜想隨著時間的流逝,這樣的情況會越來越頻繁。

Sam Altman

這聽起來很有道理。

跨越到 GPT-5

Lex Fridman

哎,這可真是一個危險的領域啊。不好意思一直糾結於此,即便你現在還不能談論具體細節,但有沒有哪些從 GPT-4 到 GPT-5 的跨越讓你特別激動呢?

Sam Altman

我對變得更聰明感到非常興奮。我知道這麼說聽上去可能有點不夠嚴肅,但我認為真正激動人心的是,我們並不是只在某一個領域進步,而是在各個方面都在變得更好。我認為這超級酷。

Lex Fridman

是的,確實有那麼一刻,就像魔法一樣。我是說,你遇到某些人,跟他們相處,跟他們聊天。你可能說不上來是什麼原因,但就是感覺他們懂你。這不僅僅是智慧,而是某種其他的東西。我覺得這就是GPT進步的地方。不是說,對,你可以指出「看,這裡它沒懂,那裡它沒搞明白」,而是這種智慧的連結到底有多深。你感受到,在你那些表達不夠完善的指令中,它能抓住你真正問題的本質。我也為此感到興奮。畢竟,我們所有人都渴望被聆聽,被理解。

Sam Altman

這肯定沒錯。

Lex Fridman

這種感覺真是奇妙。甚至在編程時,當你表達出某個想法,或者僅僅是 GPT 做出的自動補全,當它真正懂得你所思所想的時候,那種感覺絕對是極好的。我期待著它能變得更加出色。從編程的角度出發,展望未來,你覺得人類在未來5年、10年將會做多少編程呢?

Sam Altman

我想,未來會發生很多變化,但這些變化會帶來全新的形態。可能將會有人完全使用自然語言來編寫程序。

Lex Fridman

當然,我會使用自然語言來翻譯。

Sam Altman

我是說,現在沒人會通過編寫代碼來寫作了。也許有那麼幾個例外。現在更沒人用打孔卡編程了吧。我敢肯定還能找到個別人在這麼做,不過你明白我的意思。

Lex Fridman

是的,你可能會收到很多憤怒的評論。沒錯,懂得 Fortran 的人確實不多。我一直在找能編 Fortran 的程式設計師,真是難找啊。我懂你的意思。但這也改變了我們所說的程式設計師的必備技能或者傾向性質。

Sam Altman

改變了所需的技能組合。至於它會改變天賦傾向有多少,我就不太確定了。

Lex Fridman

嗯,是相同類型的解謎遊戲,所有那些事兒。

Sam Altman

也許吧。

Lex Fridman

編程確實挺難的。那麼,要怎樣才能邁過最後那 1% 的鴻溝呢?這到底有多困難啊?

Sam Altman

是的,我覺得在大部分情況下,那些這個領域裡最出色的實踐者都會運用多種工具。他們會用自然語言來處理一些任務,而當他們需要為某些特定的場合編寫 C 語言代碼時,他們也會毫不猶豫地去做。

Lex Fridman

我們會不會在將來某個時點,看到 OpenAI 推出的類人機器人或者具有人類智能的機器人大腦呢?

Sam Altman

在某個時候吧。

Lex Fridman

對你而言,實體化的 AI 有多重要?

Sam Altman

我覺得如果我們有了 AGI(人工通用智能),但現實世界的事務只能靠讓人類動手去完成的話,那真的挺讓人沮喪的。所以,我衷心希望在這個轉變過程中,隨著這種階段性的變化,我們也能開發出人形機器人或其他能在物理世界中操作的機器人。

Lex Fridman

我是說,OpenAI 在機器人技術方面已經有了一定的積累和經驗,不過在倫理這一塊兒,我們還沒能取得太大的進展。

Sam Altman

我們是一家規模不大的公司。我們得真正集中精力。而且,當時研發機器人之所以艱難,並非因為正確的理由。不過,我們遲早會重新涉足機器人領域。

Lex Fridman

這聽起來既令人振奮又讓人心生威脅。

Sam Altman

為什麼?

Lex Fridman

因為我們馬上又要聊回機器人的話題了。這就跟《魔鬼終結者》里的劇情似的——

Sam Altman

我們會繼續投入精力去研發機器人。當然了,我們自己可不會變成機器人。

AGI

Lex Fridman

是的。你覺得我們,包括你我在內的人類,會在什麼時候構建出 AGI 呢?

Sam Altman

我以前很喜歡猜測這個問題。但隨後我意識到這個問題其實構建得很糟糕,因為大家對於什麼是 AGI(通用人工智慧)有著截然不同的定義。所以,我覺得更合理的討論方式是,我們何時能夠構建出能夠執行特定能力 X、Y 或 Z 的系統,而不是什麼時候模糊不清地越過某個裡程碑。AGI 並不是一個終點,它更像是一個開始,但它其實更多是一個里程碑,而不是那些。但為了不逃避這個問題,我的預計是,到這個十年末,或許甚至早於那個時候,我們會有一些非常強大的系統,我們看著它們就會說:「哇,這真是了不起。」如果我們現在能看到它的話。可能等我們真的到那時,我們的看法已經適應並有所調整了。

Lex Fridman

但是如果你拿 ChatGPT,哪怕是 3.5 版本,給艾倫·圖靈看,或者不用他,就給 90 年代的人看,他們可能會說:「這肯定是通用人工智慧了。」呃,也許不是肯定,但確實有很多專家會這麼認為:「這就是通用人工智慧。」

Sam Altman

是的,但我並不認為 3.5 真的改變了世界。它或許改變了世界對於未來的預期,這實際上非常關鍵。它也確實讓更多人開始認真看待這個領域,將我們推向了一條新軌道。這同樣很重要。因此,我並不是要貶低它的價值。我覺得如果我在取得這樣的成就後退休,那麼我對自己的職業生涯將會相當滿意。但是將它視作一個具體物件來看,我不認為我們會回頭看那個時刻,並說,「那是一個真正改變世界本身的分水嶺。」

Lex Fridman

所以對你而言,你期待的是世界將發生一些真正重大的變革——

Sam Altman

對我來說,這正是 AGI 含義的一部分。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Lex Fridman

奇點級的轉變?

Sam Altman

不,絕對不是這樣。

Lex Fridman

但這只是一個重要的轉變,就像網際網路的誕生,還有 Google 搜索那樣。你覺得現在是一個轉折點嗎?

Sam Altman

現在的全球經濟在你感覺上有變化嗎,或者說,跟我們推出 GPT-4 之前相比,有什麼本質的不同嗎?我猜你的回答是沒有。

Lex Fridman

不,不是這樣。它或許只是一個非常實用的工具,很多人都會用它來幫助自己解決各種問題。但它給人的感覺並沒有什麼不同。你的意思是說——

Sam Altman

我的意思是,對 AGI —— 也就是通用人工智慧的定義,每個人都有各自的理解。也許你對它的看法和我不太一樣。但在我看來,這個因素應該被包括在內。

Lex Fridman

也可能會出現一些重大的、具有戲劇性的時刻。在你看來,AGI 做出哪些事情會給你留下深刻印象?當你獨自一人與系統在房間裡對話時。

Sam Altman

這對我個人而言至關重要。我不確定這是否是正確的定義,但我相信,只要一個系統能夠顯著加快全球科學發現的速度,那就是一件極其了不起的事情。我深信,大多數真正的經濟增長都源自科學和技術的進步。

Lex Fridman

我同意你的看法,這也是為什麼我不太喜歡最近幾年那些對科學持懷疑態度的現象。

Sam Altman

絕對的。

Lex Fridman

但實際上,科學發現的速度是可以衡量的。不過,即便僅僅是看到一個系統擁有真正新穎的、科學的直覺,那也將是不可思議的。

Sam Altman

嗯,對。

Lex Fridman

你很可能會成為第一個打造出能在其他人之前與之交流的 AGI 的人。你打算和它聊些什麼呢?

Sam Altman

我是說,肯定是這裡的研究人員會在我之前做到這點。不過,我確實深思熟慮過這個問題。就像我們之前談到的,我覺得這是個不太好的出發點。但如果真的有人跟我說:「好的,Sam,一切準備就緒了。這裡有一台筆記本電腦,裡面是 AGI。你現在可以去和它交流。」那麼,我會覺得意外地難以決定我要問些什麼,對於我期待第一台 AGI 能回答的問題也難下定義。那第一台 AGI 應該不會是那種我所想的,「去給我講解物理學的大一統理論,也就是關於物理學的萬有理論。」雖然我非常想問這個問題,也非常想知道答案。

Lex Fridman

你可以就「這樣的理論存在嗎?能存在嗎?」提出是非問題。

Sam Altman

嗯,那麼,我首先會問的問題就是這些。

Lex Fridman

有還是沒有。那麼基於這個,「宇宙中是否有其他外星文明存在?有還是沒有?你的第一直覺是什麼?」然後你就這麼問。

Sam Altman

嗯,我是說,我並不期望第一個通用人工智慧(AGI)能夠回答那些問題,哪怕只是用「是」或者「不是」來簡單回答。但如果它真的能夠回答,那麼這些問題肯定會是我所關注的重點問題。

Lex Fridman

或許你可以開始給出概率估計?

Sam Altman

也許吧。我們可能得先發明更多技術,去測量更多事物。

Lex Fridman

哦,我懂了。只是數據量不夠。只要它能繼續——

Sam Altman

我是說,它可能會這樣指示你:「你想了解關於物理學的這個問題的答案,我需要你構建這個裝置,完成這五項測量,然後把結果告訴我。」

Lex Fridman

是的,「你到底想要我做什麼?我得先拿到那台機器,然後我再幫你處理來自那台機器的數據。」或許這能幫你打造出一台新機器。

Sam Altman

可能吧,可能吧。

Lex Fridman

在數學方面,可能還要證明一些定理。你對這個領域也感興趣嗎?對理念進行形式化探討,你覺得怎麼樣?

Sam Altman

Hmmmm

Lex Fridman

誰要是率先開發出通用人工智慧,那他就能掌握巨大的力量。你覺得自己能駕馭那麼大的權力嗎?

Sam Altman

看,我就直言不諱地說吧。本來我要說的是,而且我依然這麼認為,我或者其他任何一個人都不應該對 OpenAI 或者 AGI 擁有完全的控制權。我覺得要有一個強健的治理體系才行。我可以舉出去年我們董事會的一系列戲劇性事件來證明,起初我沒有進行抵抗,我就這麼表示了,「嗯,那是董事會的決定,即便我認為這是個很糟糕的決策。」但後來,我顯然開始進行反抗,我能解釋這背後的微妙差別,以及為什麼我覺得後來反抗是合理的。但正如很多人注意到的,雖然董事會有法律上解僱我的權利,但實際操作起來,情況並非那麼簡單。這本身就是一種治理上的失敗。

現在呢,我感覺自己能夠完全為這些具體情況辯護,而且我認為大部分人都會贊同這一點。但這的確讓我很難對你說:「嘿,董事會完全可以解僱我。」一直以來,我都不希望對 OpenAI 擁有超級投票權。我從來沒有擁有過,也從未想要過。即使經歷了所有這些混亂,我現在仍然不想要這種權力。我始終認為,不應該由任何一個公司來做出這樣的決定,我們真的需要政府來制定相關規則。

我知道這樣會讓像馬克·安德里森那樣的人指責我試圖進行監管俘獲,但我寧願在這點上被誤解。那不是真的。我相信隨著時間的流逝,我們為什麼這樣做的重要性將會被證明出來。當然,我在 OpenAI 的路上做出了不少錯誤決策,當然也有不少正確的,總體來說,我對我們的成績感到驕傲。但我不認為應該,也不會有任何一個人來控制整個局面。現在的局勢已經變得過於龐大,它正以一種積極健康的方式在整個社會中發展。我不認為任何個人應該控制 AGI 或者這個朝 AGI 邁進的整個進程。我也不認為目前的情況是這樣。

Lex Fridman

謝謝你的袒露。你說得很有力,也很有洞察力。確實,董事會有法律上的權力來解僱你,這是個事實。但是人們可以通過影響大眾來對抗董事會的決定。不過,我覺得這個情況還有一個更正面的方面,就是人民依然掌握著權力,所以董事會也不能變得太專橫。所有這一切中,都存在著一種權力的平衡。

Sam Altman

權力的平衡當然是好事。

Lex Fridman

你害怕對 AGI 本身失去控制嗎?許多人對存在的風險感到擔憂,並不是因為國家行為體,也不是因為安全問題,而是擔心 AI 自身。

Sam Altman

目前來看,這還不是我最頭疼的事。確實有過我特別擔心這個的時候。或許將來這又會成為我最關注的問題。但至少現在,它還不是。

Lex Fridman

你的直覺告訴你,為什麼這件事不值得擔心?是因為實際上還有一大堆其他的事需要操心,對吧?你認為自己可能會被這件事震驚嗎?我們——

Sam Altman

當然可以。

Lex Fridman

… 會吃驚嗎?

Sam Altman

當然了。說這不是我最頭疼的問題,並不意味著我不認為我們應該解決它。我確實認為我們需要在這方面下工夫。這是個極其棘手的問題,但我們團隊裡有很多優秀的人正在努力解決這個問題。同時,我覺得還有許多其他方面我們也必須處理得當。

Lex Fridman

對你來說,現在要想跳出這個框框、連上網際網路,還是挺困難的。

Sam Altman

我們之前談論過戲劇性的風險。這正是一個戲劇性的風險。它有可能徹底改變人們對這一問題的認識。有一個由非常聰明的AI 安全研究人員組成的大團體,我覺得他們出發點是好的,卻在這個問題上陷得很深。我會說他們在這個問題上沒什麼大的進展,但卻異常沉迷其中。實際上,我對他們如此投入是感到高興的,因為我確實認為我們需要對此深入思考。但是,我也認為這種專注擠壓了對話空間,使得其他同樣重大的AI 相關風險被邊緣化了。

Lex Fridman

讓我問你個問題,你發推文為什麼都不用大寫字母?是不是你鍵盤上的 Shift 鍵壞了啊?

Sam Altman

為什麼會有人在乎那個呢?

Lex Fridman

我特別在意。

Sam Altman

但為什麼?我的意思是,其他人也都在問我同樣的問題。你有什麼直覺嗎?

Lex Fridman

我認為原因相同。有這麼一位詩人,E.E. Cummings,他大多數時候都不使用大寫字母,就是為了向體制說一聲「去你的」。我覺得人們之所以會很偏執,是因為他們希望你去遵守那些規則。

Sam Altman

你覺得事情真的是那樣的嗎?

Lex Fridman

我覺得吧,是這樣的——

Sam Altman

就好像是說,「這個傢伙不守規矩。他發推文不用大寫。」

Lex Fridman

嗯,對。

Sam Altman

「這感覺挺危險的。」

Lex Fridman

「他給人的感覺像是個無政府主義者。」

Sam Altman

並不—

Lex Fridman

你是在耍文藝嗎?

Sam Altman

我從小就是

Lex Fridman

Sam,要守規矩。

Sam Altman

我是在網路上長大的孩子。在那個時代,我在電腦上花費了大量時間與人聊天,你還能在某個時候登出即時通訊軟體。而且,我在那兒是從不用大寫的,我想大部分網路上的孩子都是這樣,或許他們現在仍然不用。我也說不準。說到這兒,我真的在盡力回憶,但我覺得隨著時間的流逝,大寫字母的使用已經減少了。如果你讀一讀老式英語的寫作,你會發現他們會在句子裡隨機地把許多單詞,像名詞之類的,用大寫字母寫出來,而我們現在已經不這麼做了。我個人覺得,在句子開頭大寫第一個字母,以及對特定名詞大寫,這些都是些無謂的規則,不過也就罷了。

以前,我想我在發推特的時候甚至會用上大寫字母,因為我試圖顯得更專業些。但在私信里,我已經很久沒用過大寫了。然後,像這些短格式、非正式的文本,它們慢慢地越來越接近我平時發給朋友的簡訊的風格。

不過如果我打開 Word 文檔,寫一份公司的戰略備忘錄之類的東西,我還是會用上大寫。同樣,當我寫較長、較正式的資訊時,我也總是用大寫。所以我還記得怎麼做。但即便這樣,這個習慣未來可能也會慢慢淡出。我也不確定。不過,我從未真正花時間去思考這件事,所以我也沒有現成的——

Lex Fridman

這很有意思。首先,能確認 Shift 鍵沒有壞掉,這是件好事。

Sam Altman

它有效果。

Lex Fridman

我主要是擔心你的-

Sam Altman

不,這是有效的。

Lex Fridman

… 在這方面的福祉。

Sam Altman

我好奇,現在人們在谷歌搜索時還會不會用大寫字母。比如說你只是給自己寫點什麼,或者在向 ChatGPT 提問題,還有人會特意去注意大小寫嗎?

Lex Fridman

可能不是。但確實有一點可能性,只是非常小而已。

Sam Altman

如果人們覺得這樣做是一種……因為顯然,我肯定能逼自己使用大寫字母。如果人們認為這是對他們表示尊重的一個標誌,那麼我可以接受去這麼做。但說實話,我並沒有太去考慮這件事。

Lex Fridman

我不覺得這是不尊重,但我認為這只是文明禮儀的一種慣性。然後,你突然意識到,如果這不代表尊重或不尊重,那麼對於禮貌而言,它其實並不是那麼重要。不過,我覺得有一批人,他們只是希望你能對此有所思考,有個哲學理念,這樣他們就能捨棄這整個大寫字母的問題。

Sam Altman

我覺得沒有其他人會像我這樣頻繁地考慮這件事兒。我是說,可能也有幾個人。我確實知道有些人——

Lex Fridman

人們每天都會花好幾個小時去思考這個問題。所以,我真的很感激我們把這件事弄清楚了。

Sam Altman

一定不只有我一個人在推特上不用大寫字母吧。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

Lex Fridman

你可能是唯一一個推文不用大寫字母的公司 CEO。

Sam Altman

我甚至都不認為那是真的,不過或許吧。要是那樣的話,我會非常吃驚。

Lex Fridman

好的。我們會進一步調查,稍後再回到這個話題。既然 Sora 能夠創造出模擬世界,那我就問你一個燒腦的問題吧。這是否讓你更相信我們可能生活在一個模擬現實中,也許是由人工智慧系統生成的?

Sam Altman

有些吧。我並不認為這是最確鑿的證據。不過,我們能創造世界的事實,應該會在一定程度上提高每個人對此的接受程度或者至少增加一些對這個觀念的開放性。但是,像 Sora 這樣的產品我知道遲早會出現的。它來得比我預想的快,不過我認為這並沒有給我帶來太大的驚訝。

Lex Fridman

確實如此。但考慮到…我們有理由相信它將會不斷進步…你可以創造出全新的世界,這些世界雖然源自一定的訓練數據,但當你注視它們時,它們卻是新穎獨特的。這讓人不禁思考,創造這樣的宇宙,構建一個超現實且像照片一般逼真的整個電子遊戲世界,其實是多麼容易。再進一步思考,我們穿上 VR 頭盔,沉浸在這樣的世界裡會有多容易,而當我們邁向更基於物理規律的層面時,又會簡單到什麼程度呢?

Sam Altman

最近有人和我分享了一個觀點,我認為它非常深奧。有時候,會有一些聽起來簡單,卻極具迷幻色彩的洞見。譬如平方根函數,算 4 的平方根,輕而易舉。算 2 的平方根,那好,現在我得考慮一種新的數字類別了。但一旦我構思出這個簡單的概念——平方根函數,它既可以給孩子解釋,又可以通過觀察基礎幾何圖形來理解,那麼你就可以提出這樣一個問題:「負一的平方根是什麼?」這就是它帶有迷幻氣息的原因。這個問題會將你引入一個完全不同的現實維度。

你可以找到很多其他的例子,但我覺得這個想法 —— 即一個簡單的平方根運算符能帶來如此深遠的洞見和開闢新的知識領域 —— 在很多方面都成立。我認為,存在很多這種運算符,它們會讓人們相信自己鍾愛的模擬假說版本可能比之前想像的更有可能成真。但對我個人而言,Sora 工作的事實並不排在我的重要性前五名之內。

Lex Fridman

我覺得,大體上,人工智慧在最佳狀態下會成為那種門戶,簡單而仿佛是迷幻劑那樣,通向另一種 C 波段現實的門戶。

Sam Altman

這個可以肯定。

Lex Fridman

這真是挺讓人興奮的。我以前沒嘗過阿亞華斯卡,不過我很快就會試試。幾周後,我就要前往前面提到的亞馬遜雨林了。

Sam Altman

興奮嗎?

Lex Fridman

是的,我對這件事感到很興奮。不過我不是因為ayahuasca那部分感到興奮,雖然那也挺好的。但我要在叢林深處待上幾周。這既讓人興奮又讓人害怕。

Sam Altman

我為你高興。

Lex Fridman

那裡處處是危險,隨時都可能被吞食、致命或者中毒,但那同時也是大自然的一部分,是大自然的巨大機器。在亞馬遜叢林中,你會不由自主地去讚嘆大自然的機制。

就像是這樣一個系統,它時刻在自我更新中,無論是秒、分還是時。那正是一台機器。這讓你對我們所擁有的一切產生敬意,這種屬於人類的特質從某個地方誕生。這個演化的巨大機器創造了一切,而在叢林中,它的表現尤其明顯。

希望我能安然無恙地走出叢林。如果不行,那麼這可能就是我們最後一次愉快的交流了,所以我真心感到非常珍視。

 

「ChatGPT 之父」最新專訪:關於 GPT-5、Sora、Ilya、Q*、AGI、外星人等等一切

 

外星人

Lex Fridman

當你仰望繁星點點的夜空時,你認為宇宙中還存在其他的外星文明嗎,也是擁有智慧的那種?

Sam Altman

我非常希望相信答案是肯定的。我覺得費米悖論特別難以理解。

Lex Fridman

我發現智能不擅長處理這些事情,這挺讓人害怕的。

Sam Altman

非常嚇人。

Lex Fridman

… 強大的技術。但同時,我相當有信心,宇宙中肯定存在大量的智慧外星文明。可能只是穿越太空非常艱難而已。

Sam Altman

很有可能。

Lex Fridman

這也讓我思考了智能的本質。或許我們真的對智能的樣子視而不見,AI 可能會幫助我們認識到這一點。智能遠不止像 IQ 測試和簡單解謎那樣簡單。它有更深層的東西。關於人類的未來,關於這個我們正在建設的人類文明,有什麼讓你感到充滿希望的呢?

Sam Altman

我覺得過去非常重要。我是說,我們只要回顧一下人類在並不漫長的歷史裡取得的成就,雖然存在巨大的問題、深刻的缺陷,還有許多讓人深感羞恥的事情。但總體上,這是非常振奮人心的。這給了我很多希望。

Lex Fridman

它的發展軌跡真讓人震驚。

Sam Altman

嗯,對。

Lex Fridman

我們齊心協力,邁向一個更加美好的未來。

Sam Altman

我好奇的是,AGI 是否會更像是一個單獨的大腦,或者它更像是聯繫我們每個人的社會基礎設施,就像是一座腳手架?

從你的高曾祖父母那裡遺傳下來,你的基因並沒有多大變化,可是你的能力和知識卻有了天壤之別。這不是因為生物學上的演變。我的意思是,你可能會更健康一些,也許有現代醫學的幫助,飲食更加營養,等等。

但重要的是,你擁有的是我們所有人共同構建的知識和技能的框架。沒有一個人能夠獨立製造出 iPhone。沒有一個人能夠獨自發現所有的科學知識,但你可以利用這些知識。這給了你驚人的能力。

所以從某種程度上說,這是我們大家共同創造的成果,這讓我對未來充滿希望。這真的是一項集體努力的成果。

Lex Fridman

是的,我們確實是站在巨人的肩膀上。你之前提到,當我們談到那些充滿戲劇性的 AI 風險時,有時候你會擔心自己的生命安全。你有沒有想過自己的死亡?這讓你感到害怕嗎?

Sam Altman

我是說,如果我知道自己明天會中槍,我今天的感受就會是,「哎呀,這太令人難過了。我多想看看後面會發生些什麼呢。多麼不可思議、多麼有趣的時代啊。」 不過,我最主要的感覺還是會非常感激我所擁有的生活。

Lex Fridman

能獲得那些時刻,是啊,我也是。這是一段非常美妙的人生。我得以欣賞人類創造的傑作,我相信 ChatGPT 就是其中之一,OpenAI 正在做的一切也是。Sam,能再次與你交流,真的是我的榮幸,也是一種樂趣。

Sam Altman

很高興能和你聊天。感謝你的邀請。

Lex Fridman

現在,我要用亞瑟·C·克拉克的一段話作為結束語:「或許我們在這個星球上的使命,並非去崇拜上帝,而是去創造上帝。」感謝各位的傾聽,期待下次再會。

 

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新