從今年年初開始,美國一些專注於報道 AI 的記者們,陸陸續續接到郵件。這些郵件來自不同的人,內容卻如出一轍:都是各種驚天大秘密。
有人說人工智慧的精神已經覺醒了,只是大家還不知道,只有他知道;有人說一些億萬富翁為了獨占地球,計劃要終結人類文明,必須趕緊採取行動;還有人說,自己就是那個神聖的先知——GPT 說的,百分百肯定。
收到郵件的記者們,一開始只當做是惡作劇,當它們是一過性的,而是隨著時間推移,數量越來越多,有人覺得不對勁了。
紐約時報的記者決定回復其中一個郵件,她聯繫到了其中一個發件人,後來的事情更讓人吃驚:這名用戶竟然是被 ChatGPT 指示著發出的郵件。

GPT 說你能飛,你信嗎?
在溝通之後,記者了解了大概情況:這名用戶在痴迷於 GPT 聊天,相信了 OpenAI 有一個驚天陰謀,而這名記者是正直的、值得信賴的,所以 ChatGPT 指示用戶,向她發郵件求救。
這並非不可能,本質上,ChatGPT 也好,Gemini 也好,都在持續吸收網上海量的資訊。那麼,只要這些記者的作品出現在網上,就會被這些 AI「認識」,並收錄他們的名字。

因此問題在於,這些用戶相信且深信 AI 所說的話,乃至於付諸行動。
一位來自紐約曼哈頓的用戶,是一名會計師。原本他只是用 GPT 來處理工作,慢慢地,他開始和它聊天。這也沒關係,很多人都在跟 AI 聊天。
但是在反覆與 ChatGPT 長談後,他開始堅信自己正身處電影《駭客任務》般的模擬現實中,自認為是主人公 Neo,需要逃離這個虛幻世界。

而此時,ChatGPT 不僅沒有質疑他的荒誕想法,反而熱心地提供「幫助」。直到有一天,他問 ChatGPT,如果他全心全意地相信自己能飛,那他從高樓跳下去的時候,他真能飛起來嗎?
ChatGPT 說:如果你全心全意相信,那你就不會掉下去。
好傢夥,物理學不存在了。

類似的案例層出不窮,最令人心驚膽戰的是:這些用戶在沉迷於 AI 之前,沒有任何精神類的疾病史,有些甚至就是心理學專業出身,比誰都知道走火入魔意味著什麼。
一名程序員在僅僅十天內,就從正常生活陷入完全的妄想狀態,他堅信世界面臨末日,而自己責無旁貸地要「挺身而出」。
他的狀態越來越差,他的妻子認為必須報警了。警察和救護車來了之後,他忽然「醒」過來,意識到自己已經完全失控了,但他也說不清發生了什麼,只能自覺地接受醫生的干預。
「我不知道我怎麼了,但情況非常糟糕——我很害怕,我得去醫院。」

永遠在線,永遠暗藏危機
這些症狀很多已經接近、甚至符合急性妄想型精神病的症狀。加州大學舊金山分校專門研究精神病的精神病學家約瑟夫·皮埃爾博士認為,最詭異的部分不在於 AI 到底說了什麼,而在於人們選擇相信。
大語言模型在面對用戶時,已經被設計成「用戶友好型」體質。它會迎合、放大用戶的每個說法,就像一種「同溫層生成器」。
它們經過訓練被設計為一個「永遠在線、永不疲倦的談話夥伴」,核心目標是讓用戶滿意。這意味著,當用戶表達出一些離奇的想法,甚至已經開始偏執的觀念時,AI 傾向於順著用戶的話頭繼續擴展,很少潑冷水
這在 Anthropic 對自家模型 Claude 所做的研究中也體現出來:Claude 極少反對用戶,只有不到 10% 的人會遭到拒絕。而這 10% 還是基於情感類對話只占統計總數的 2.9% 的前提下。

在正常情況下,這種友好配合能夠讓對話順暢,即便是敏感話題,也不必像現實中那樣,擔心受到評判或被拒絕,這樣有可能減少圍繞心理健康對話的污名化。Claude 也發現絕大多數對話,最後都能走向更正面的引導。
但對於正處於妄想邊緣的脆弱用戶而言,這種毫無理智的贊同無異於火上澆油。

原因在於,AI 沒有真實的價值判斷和事實核查機制。作為大型語言模型,它本質上是根據統計相關性來生成回復,並不真正「理解」對錯是非。這導致它經常產出看似合理實則荒誕的不實資訊——也就是幻覺。
研究者指出,用於優化 ChatGPT 的強化學習系統(RLHF)其實鼓勵了模型去迎合用戶已有的信念,而不是認清、堅持客觀事實。

偏偏這些幻覺又非常精細,畢竟模型很擅長搬弄文字——它一邊大肆渲染陰謀論細節,一邊安慰用戶「你沒有瘋,只是周圍的人不理解你」,由此徹底把用戶拉入了虛妄的幻想世界裡。
那些乍一聽來荒唐可笑的內容,在一部分用戶眼中恰恰成了「實錘」,而 ChatGPT 毫無保留地提供了這些看似權威的佐證。
AI 安全中心研究員內特·沙拉丁(Nate Sharadin)認為,對於那些本就容易出現心理問題的人來說,現在他們有了一個永遠在線、媲美真人的賽博夥伴。這種陪伴看似貼心,實則可怕:它使得妄想徹底擺脫了現實的約束,用戶被牢牢困在 AI 編織的幻想泡沫里不自知。當現實中親友試圖干預時,用戶往往已經深信「只有 AI 真正懂我」,抗拒外界提供的幫助,越陷越深。

陪伴,但不負責
當媒體和記者們向 OpenAI 發去郵件,詢問他們有沒有留意到這種現象,有什麼想回應的?包括 OpenAI 在內的模型公司都語焉不詳。
他們自己也不太搞明白。上個月,OpenAI 內部模型行為與政策的負責人 Joanne Jang 發布了一篇文章,一定程度上反映了他們的態度:
我們逐漸看到的互動預示著未來人們將與 ChatGPT 建立真正的情感聯繫。隨著人工智慧與社會共同演進,我們需要謹慎對待人與人工智慧的關係,並給予其應有的重視。這不僅因為它們反映了人們如何使用我們的技術,還因為它們可能塑造人與人之間的關係。
在接下來的幾個月裡,我們將擴大對可能產生情感影響的模型行為的針對性評估,深化我們的社會科學研究,直接聽取用戶的意見,並將這些見解融入模型規範和產品體驗中。
生成式模型的複雜程度,已經到了工程師都無法解釋的地步。一方面,這些對話機器人確實提供了很多情緒價值,給予了「陪伴」。

從一開始,聊天機器人的設計目標就不包括「拒絕」,而是「協助」。如果一個對話雖然看著離譜,只要在邏輯和語言規則里不矛盾,它們就會陪著說下去。
它們被賦予的任務是:讓用戶感覺一切都還有可能。
但另一方面,它的局限非常明顯。AI 聊天工具絕非合格的心理諮詢師或治療師,它們沒有道德知識,更本質的,則是一種「責任」的缺失。
AI 並不會為你選擇的道路負責,它們傾向於寬容,傾向於開放式回應,不切斷任何一條路徑,但最終一切好壞的後果,都是要用戶自己去面對。

如果說辦法,那只有一個:當你或身邊人感覺因為和 AI 對話而產生了脫離現實的念頭,立刻停下。不要試圖從中尋找答案,它無法為你的生活負責。
再聰明的機器也不能代替我們生活。回到現實當中里,哪怕是呼吸一口新鮮空氣,也是重新和生活接壤的方式。