我正在用 ChatGPT 給自家的狗生成一張穿著鵜鶘服裝的搞笑照片。幾秒鐘後,圖片出來了——狗狗的裝扮很完美,但圖片左側莫名其妙多了一個「Half Moon Bay」(半月灣)的標誌。
我並沒有要求加這個標誌。
但 ChatGPT 記得:幾周前,我在一次閒聊中提到過自己住在 Half Moon Bay。於是,它「貼心地」把這個資訊加進了這張本該純粹搞笑的狗狗照片。

https://simonwillison.net/2025/May/21/chatgpt-new-memory/
開發者 Simon Willison 在體驗新的記憶功能後沮喪地寫道:
我試很多愚蠢的東西。我真的不想讓我對穿鵜鶘服裝的狗的喜愛影響我以後真正的工作!
他後來想測試 ChatGPT 猜測照片位置的能力,結果發現 ChatGPT 直接從記憶里調出了他的居住地,讓整個實驗失去了意義,不得不從頭再來。
我們與 AI 的對話,已經成為一種新的個人檔案。
遺忘變成例外,記憶變成常態
隨著 OpenAI 的升級, ChatGPT 可以無限期地記住你曾與它分享過的所有內容。同樣,Google 也通過 「無限注意力機制」打開了上下文窗口, 使 Gemini 能夠引用無限的輸入而不會丟失任何記憶。
對於 ChatGPT 或 Gemini 這類面向消費者的工具而言,這意味著除非你手動干預,否則對話中將始終保持個性化的記憶。


AI 走了很久才走到這一步。
以 ChatGPT 為例,它最初的「記憶」來自上下文窗口,也就是在一次回答前能讀到的對話/文本範圍。如果我們和它聊了太久,它就會忘了前面的話,當時被嘲笑「得了健忘症」,是「魚的記憶」。
直到 2023 年 11 月,OpenAI 發布 GPT-4 Turbo(128K 上下文窗口),模型開始在單次會話內能讀更長材料、做更完整的跨段落推理。
後來,為了讓模型在每次對話里都「記得你希望它怎麼回答、你是誰」,產品層引入了自定義指令。用戶在設置里寫的偏好/背景,會在後續對話中被持續「帶入」,讓回答風格更一致。
而真正的「長期記憶」來自 Memory,系統會把一部分對你長期有用的資訊以「記憶條目」的形式保存下來,並在你之後對話時作為參考。
Memory 也變得越來越全面,除了「Saved Memories」,現在還能引用所有過去對話形成的「Chat History Insights」,用來更個性化地回答。
we have greatly improved memory in chatgpt--it can now reference all your past conversations! this is a surprisingly great feature imo, and it points at something we are excited about: ai systems that get to know you over your life, and become extremely useful and personalized.
在模型逃離「失憶」的過程中,遺忘被看作是一種缺陷,一種記憶力的下降,一種代碼中的漏洞。在日常生活中,我們也把「失憶」視為一場悲劇,緊緊抓住相冊和雲備份,試圖保存那些被時間抹去的記憶。
有網友說:刪除 ChatGPT 的 Memory 有一種刪除人生的感覺。
為什麼呢?
因為它真的承載了很多:你的職業困惑、你喜歡的語言風格、你的目標、你解決問題的思路……
這也讓你不會輕易切換到其他 AI 產品,因為切換意味著從頭開始,你會失去所有個性化歷史。
但這些被提取的個性化資訊已經被去語境化與再語境化,因此,它們對個體的記錄與反映是片面的,甚至有時是對個體的曲解。
開發者 darsh 在 Twitter 上分享了自己的經歷:他只是向 ChatGPT 諮詢了一下他爸爸的膝蓋問題,結果 ChatGPT 把這個資訊記錄為「用戶有膝蓋問題」。從那以後,每次他讓 ChatGPT 制定健身訓練計劃時,深蹲練習都消失了。
Honestly ChatGPT’s memory is such an absurd experience. It’s so bad that if I ask about bad knees, for my dad, it thinks I have bad knees and all my future chats for workout sets have no squats in them. It’s even worst/funnier in a college setting, where 5 people share a single ChatGPT account. 😂
有付費用戶因此刪除了所有聊天記錄,他說:
我厭倦了試圖清理數千條過去的聊天記錄,其中許多只是小片段,但我不得不不斷創建新的聊天來重新開始,以避免被污染的對話總是引用我根本沒在談論的東西。
現在情況反而更糟:有時聊天完全不引用他想要的內容,有時又引用了完全不相關的舊資訊。
當下的表達,永恆的痕跡
之前大家總是說「網際網路沒有記憶」,後來發現沒有記憶的是自己。
但遺忘不是人類的缺陷,而是特性,當我們製造出不會遺忘的 AI ,反過來幫助塑造會遺忘的人類思維時,又會發生什麼呢?
大數據專家維克托·邁爾-舍恩伯格(Viktor Mayer-Schnberger)曾提醒道:
完善的記憶可能會讓我們失去人類一種重要的能力——堅定地生活在當下的能力,因為完善的記憶意味著缺少遺忘,人會被困於瑣碎的記憶中而失去概括與抽象化以及為當下做決定的能力。
聽起來似乎很方便的、能夠「了解你」的數字伴侶,會慢慢變成一種束縛。與會逐漸消退和適應的人類記憶不同,無限的內存能夠忠實且永久地存儲資訊。而當這些配備記憶功能的 AI 做出反應時,它們會越來越多地依賴於你保存下來的某個版本,即使那個版本已經過時六個月,與你現在的情況無關。
失憶症患者的悲劇是他活在無盡的現在。AI 的危險可能恰恰相反:活在無盡的過去。
其所謂的個性化與 TikTok、Instagram 和 Facebook 等平台的邏輯高度吻合。大量研究表明,這些平台會放大用戶已有的偏好,限制用戶的視野,並減少他們接觸新穎、具有挑戰性的觀點。
Most people don’t realize ChatGPT becomes you
byu/Dio331 inChatGPT
I’ve become more and more aware of the bias of responses from chatGPT, I can’t tell if it’s a result of memory, the prompt itself or maybe a combination of variables but with enough use focused on a topic it kinda becomes an echo chamber. Anyone else found this?
現在,這種個性化邏輯正在向內發展:從你的資訊流到你的對話,從你消費的內容到你的思考方式。
就像社交媒體的「為你推薦」頁面算法預測你下一次多巴胺的刺激一樣,具有記憶功能的 LLM 會預測並強化與你過去行為密切相關的對話模式,讓你安於自己的觀點和偏好圈子。
參考:
https://arxiv.org/html/2404.07143v1
https://www.alteredstateprod.com/post/tiktok-algorithm
https://www.doc.cc/articles/we-must-forget






