今天凌晨,據外媒《Fortune》援引前 OpenAI 員工 Daniel Kokotajlo 的說法,曾專注於超級 AI 長期風險的 OpenAI 員工中,幾乎有一半在過去幾個月離開了公司。
據他透露,自 2024 年以來,OpenAI 公司內部的人員流失現象嚴重,曾經大約有 30 名員工從事於 AGI 安全相關的工作,但現在只剩下大約 16 人。
他認為,這並不是有組織的離職潮,而是隨著 OpenAI 繼續向產品和商業方向轉型,減少了對安全開發 AGI 的資源投入,從而導致許多員工紛紛選擇離開。

事實上,自去年宮鬥風波以來, OpenAI 的人事變動就一直風波不斷,其中超級對齊團隊更是分崩離析,專注於 AGI 安全和應對措施的員工也被逐步邊緣化。
先是 OpenAI 首席科學家 Ilya Sutskever 宣布離職,投身於下一個「意義重大的項目」,後有超級對齊團隊負責人之一 Jan Leike跳槽至昔日勁敵 Anthropic。
當時,Jan Leike 還在 X 平台公開吐槽 OpenAI 的「變質」,聲稱在過去幾年裡,安全文化和流程已經退居次要地位,而「閃亮的產品」則成為重中之重。

不過,Kokotajlo 也補充道,儘管 Leike 離職後超級對齊團隊被解散,但他仍有朋友在 OpenAI 繼續從事 AGI 安全工作,只是轉移到了其他團隊,並繼續從事類似項目。
對於繼續留在 OpenAI 的員工,Kokotajlo 警告說,在大型 AI 公司競相開發 AGI 的過程中,需要警惕「群體思維的陷阱」。
我認為,部分原因是,在公司內部,合理的觀點自然會被大多數人的意見所影響,也會受到激勵機制的驅動,因此,公司最終得出他們贏得 AGI 競賽對人類有益的結論也就不足為奇了 —— 這是一種被激勵的結論。

業界普遍認為,Altman 和 Greg Brockman 自去年宮鬥風波以來就一直在「鞏固權力」。
本月初,OpenAI 聯創、重要元老級人物 John Schulman 也宣布離職,公開資料顯示,他在強化學習和深度學習方面的研究對 AI 的發展產生了深遠影響。
他曾在 OpenAI 協助領導「後訓練團隊」,並共同創立了 OpenAI LP,致力於推進 AI 技術的安全發展。
而他的下一站則是 OpenAI 的最大競爭對手 Anthropic。這也是繼超級對齊團隊負責人 Jan Leike 之後,又一位加入 Anthropic 的重要高管。
頗為有緣的是,在 Ilya 和 Jan Leike 離職後,Schulman 曾接管防止 AI 對人類社會造成傷害的超級對齊團隊,以確保 AI 模型的安全性。

隨著 Schulman 的離開以及總裁 Brockman 進入長期休假階段,也意味著 OpenAI 的 11 名創始人團隊如今僅剩下兩位活躍的創始成員——
OpenAI CEO Altman 以及語言與代碼生成團隊負責人 Wojciech Zaremba。
處於有關 AI 和安全問題的激烈辯論中心的 OpenAI 一舉一動都在引發全球的關注。包括在今年五月份,外媒 Vox 曝出一份 OpenAI 員工極其嚴苛的離職協議。

報道稱,OpenAI 員工需要簽署極其嚴格的離職協議,其中包括保密和不詆毀條款。協議禁止他們終生批評他們的前僱主,甚至承認 NDA 的存在也是違反協議的。
如果離職員工拒絕簽署文件,或違反文件,他們可能會失去在公司期間獲得的所有歸屬權益,這可能價值數百萬美元。該事件曝出後,也迅速在網上引起軒然大波。

或許也正是因為這一連串輿論事件讓 OpenAI 內部認為安全威脅可能來自公司內部。
最近 OpenAI 正在招聘一名技術內部風險調查員,目的是要「加強公司對內部安全威脅的防範能力。」
招聘資訊中提到,該職位的職責包括分析異常活動、檢測和緩解內部威脅,並與人力資源和法律部門合作,「對可疑行為」進行調查。
外媒 The Bussiness Insider 指出,儘管目前尚未清楚 OpenAI 正在尋找何種類型的威脅,但這份招聘資訊似乎表明 OpenAI 還擔心來自其自身員工的威脅。
截至發稿前,OpenAI 發言人暫未就此事發表評論。