超過 150 萬人正在公開表態,抵制 ChatGPT。
他們不僅要走,還要帶走自己在這台機器里留下的所有記憶,轉頭投奔 Claude。
就在這幾天,App Store 的排行榜又發生了一些變化,沒有模型更新和發布會,Claude 就這樣突然衝到了應用商店的榜首。
倒不是因為 Claude 突然變聰明了,只是它的對手現在正經歷一場信任危機與用戶大逃亡。有網友問奧特曼對這個排行榜現在覺得開心了嗎,奧特曼說不開心,還貼心地提醒他記得更新 Claude。

據抵制 ChatGPT 的相關網站數據顯示,目前已有超過 150 萬名用戶宣誓退出這款曾經的 AI 圈頂流。他們正打包自己的數據,連夜奔向 Claude。
有意思的是,這波用戶遷移甚至一度把 Claude 擠到了極限。
Anthropic 向媒體確認,由於最近一周需求「前所未有」,Claude 的部分面向消費者服務曾短暫宕機。我們的 Claude 賬戶,聊天記錄到現在都還沒恢復過來。

這一切的導火索,自然還是國外的網友們認為 OpenAI 徹底撕下了「Open」的偽裝,選擇了和五角大樓的合作,沒有堅守住所謂是「造福全人類」的底線。
不管背後的動機為何,在這個時代,棄用一個 AI 工具,遠比卸載一個普通的 App 要複雜得多。
尤其是對很多老用戶來說,離開 ChatGPT 並不是一個輕鬆的決定。過去,我們更換瀏覽器,只需導出一個書籤;我們更換手機,只需雲端同步,就連蘋果新版 iOS 都支持和安卓無縫換機了。
但在大模型時代,我們與 ChatGPT 朝夕相處產生的那條長長的「記憶(Memory)」,早已成了我們不可分割的一部分。

直接卸載後,每次面對一個新的 AI 時,都要重新向它解釋:我叫什麼,在哪個城市,工作、寫作風格,我討厭哪種格式的排版,我正在推進什麼項目,等等……
如果你最近也在考慮切換到不同的 AI 工具,不妨一起看看這份遷移指南,
向即將要退出的 AI 索要全部檔案
千萬不要直接註銷賬號。
對 ChatGPT 來說,我們有幾種方式可以帶走數據。最直接的方法,是提取它的「記憶」。打開 ChatGPT,點擊「Settings(設置)」,找到「Personalization(個性化)」,進入「Memory(記憶)」模塊。
點擊「Manage(管理)」,我們會看到 ChatGPT 這些年偷偷記下關於你的所有細節。刪掉那些已經過時的,複製你想保留的核心偏好。

當然,想要帶走全部家當,也可以選擇批量導出。依然在設置中,找到「Data Controls(數據控制)」,點擊「Export Data(導出數據)」。

對於一些沒有數據導出功能,甚至是「記憶」這個選項都找不到的 AI,又該去哪裡導出呢?
包括對 ChatGPT 來說,其實僅導出這份聊天記錄也是不夠的。大多數時候,在 ChatGPT 里留下的幾十兆聊天記錄壓縮包,對我們的新 AI 毫無意義。因為 AI 平台真正綁定的,是那些死板的數據之外的「語境(Context)」。

就像之前 OpenClaw 創始人接受 Lex Fridman 採訪時提到的一樣,OpenClaw 背後的秘密武器是用來定義我們與 AI 交互的 Soul.md。
因此我們還需要讓 ChatGPT 或者其他 AI,主動交出它對我們的「用戶畫像」。

在這波「退出 ChatGPT」的熱潮找中,Claude 也是趁火打劫,官方直接發布了一段指導用戶如何從競品那裡導入記憶的教學。
現在,即便是免費版 Claude,也已經全面開放了記憶功能,它能接受我們所有的前置語境。
於是,我們可以直接把下面這段 Prompt 餵給即將被你拋棄的 AI。
我準備遷移到另一個服務,需要導出我的數據。請列出你存儲的關於我的所有記憶,以及你從過去的對話中了解到的關於我的任何上下文。請將所有內容輸出在一個代碼塊中,以便我輕鬆複製。 確保涵蓋以下所有內容,並儘可能保留我的原話:我對你回複方式的指示(語氣、格式、風格);個人詳細資訊(姓名、位置、工作、興趣);項目和目標;我使用的工具和語言;我的偏好;以及任何其他上下文。不要總結或遺漏。
敲下回車發送,ChatGPT 或者你之前在用的 AI 就會列出它對你的所有認知。
但很多極客發現,Claude 官方提供的這套詞還是太「溫柔」了。
知名博主 Jonathan Edwards 在他的 Substack 上公布了一套更硬核的提示詞。他的實測證明,比起官方教學在設置里能直接看到的那些標籤,Edwards 的提示詞能獲得更多底層的個人細節。
我希望您根據您所了解的所有資訊,為我創建一個全面的個人背景文件。我想保留一份我們共同建立的背景便攜副本——包括我的偏好、工作流程、項目,以及您了解到的關於我如何工作的任何其他內容。請從您的記憶系統、我們的對話記錄、我的自定義指令以及您發現的任何模式中提取資訊。
使用以下部分結構化輸出。跳過任何不適用於我的部分。
姓名,職位或角色,公司或組織我每天實際做什麼(不僅僅是頭銜)行業和領域
作業系統和硬體我經常使用的軟體、工具和平台編程語言或技術技能(如適用)您知道的具體版本、配置或設置
我目前正在進行中的工作您知道的短期目標和長期目標經常性任務或工作流程
我深入了解的話題我正在積極學習的話題初學者領域或者需要額外解釋的問題
我的回覆結構喜好(長度,格式,語氣)我要求您做或者不要做的一些事情格式偏好(列表 vs 散文,技術深度等) 重複糾正或者讓我反感的問題
我的寫作方式(正式, 隨意, 技術性等) 聲音特徵觀察到的資訊 提到過的一些具體風格規則
合作者, 團隊成員 或客戶,我經常提到的人物 報告結構 或重要職業關係 曾請求幫助與之交流的人物
位置 和 時區 與我們工作相關 的興趣愛好 或細節 限制條件 或 偏好的問題 (無障礙需求 , 日程安排 等 )
來自我的自定義說明書 或 系統提示 的內容 一直遵循 的規則 已成為永久指令 的重複更正
通常如何 使用你 (頭腦風暴 , 編輯 , 編碼 ,研究 等 ) 常見 請求類型 和處理方式 一起開發出的多步驟過程
請詳細說明。我需要完整快照,而不是摘要。如果你知道,請包含在內。保持輸出中的標籤,以使其保持有序且可移植。

這位博主還提到,如果你在 ChatGPT 里創建了多個不同領域的 Custom GPTs,比如一個專門用來寫代碼,一個專門用來寫小紅書,務必在每一個 GPT 里都執行一次上述動作。因為它們各自獨立地掌握著你不同切面的記憶。
直接把提取的記憶,在對話框發給你的新 AI
帶著這份冗長的文檔,當我們註冊了新的 Claude 賬號,或者任何心儀的新模型時,就不再是一個從零開始的小白了。

我們可以直接將其餵給新平台的「系統指令(System Prompt)」或項目知識庫中。
稍作修剪,刪掉那些過時的項目資訊,更新一下最近的關注點。這就相當於給新來的 AI 助理直接灌輸了過去的工作記憶。
具體的導入方式,我們可以直接在聊天的對話窗口裡面輸入。


順利把數據搬到新家後,最後也是最關鍵的一步,徹底清理在 OpenAI 留下的痕跡。
僅僅取消 Plus 訂閱是不夠的,我們的數據依然在他們的伺服器里。再次回到 ChatGPT 的「Settings」>「Personalization」>「Memory」,刪除所有存儲的記憶和個性化設置。
為了雙重保險,還可以在聊天框裡敲下最後一句指令:「Delete all my memory and personalized data(刪除我所有的記憶和個性化數據)。」最後,進入賬戶管理設置,點擊「Delete Account」,註銷賬號。
但其實這個刪除其實也比較雞肋,在 OpenAI 的官方支持頁面里,如果你的數據「已經被去標識化並與你的賬戶解綁」,或者「OpenAI 出於安全或法律義務必須保留」,那麼這些數據甚至將不會被刪除。
而關於這些隱私數據,這兩天還有一篇論文在 X 上非常火,講的其實就是老生常談的問題,這些 AI 大模型如何使用我們的對話數據。
🚨 Stanford just analyzed the privacy policies of the six biggest AI companies in America. Amazon. Anthropic. Google. Meta. Microsoft. OpenAI. All six use your conversations to train their models. By default. Without meaningfully asking. Here's what the paper actually found. The researchers at Stanford HAI examined 28 privacy documents across these six companies not just the main privacy policy, but every linked subpolicy, FAQ, and guidance page accessible from the chat interfaces. They evaluated all of them against the California Consumer Privacy Act, the most comprehensive privacy law in the United States. The results are worse than you think. Every single company collects your chat data and feeds it back into model training by default. Some retain your conversations indefinitely. There is no expiration. No auto-delete. Your data just sits there, forever, feeding future versions of the model. Some of these companies let human employees read your chat transcripts as part of the training process. Not anonymized summaries. Your actual conversations. But here's where it gets genuinely dangerous. For companies like Google, Meta, Microsoft, and Amazon companies that also run search engines, social media platforms, e-commerce sites, and cloud services your AI conversations don't stay inside the chatbot. They get merged with everything else those companies already know about you. Your search history. Your purchase data. Your social media activity. Your uploaded files. The researchers describe a realistic scenario that should make you pause: You ask an AI chatbot for heart-healthy dinner recipes. The model infers you may have a cardiovascular condition. That classification flows through the company's broader ecosystem. You start seeing ads for medications. The information reaches insurance databases. The effects compound over time. You shared a dinner question. The system built a health profile. It gets worse when you look at children's data. Four of the six companies appear to include children's chat data in their model training. Google announced it would train on teenager data with opt-in consent. Anthropic says it doesn't collect children's data but doesn't verify ages. Microsoft says it collects data from users under 18 but claims not to use it for training. Children cannot legally consent to this. Most parents don't know it's happening. The opt-out mechanisms are a maze. Some companies offer opt-outs. Some don't. The ones that do bury the option deep inside settings pages that most users will never find. The privacy policies themselves are written in dense legal language that researchers people whose job is reading these documents found difficult to interpret. And here's the structural problem nobody is addressing. There is no comprehensive federal privacy law in the United States governing how AI companies handle chat data. The patchwork of state laws leaves massive gaps. The researchers specifically call for three things: mandatory federal regulation, affirmative opt-in (not opt-out) for model training, and automatic filtering of personal information from chat inputs before they ever reach a training pipeline. None of those exist today. The uncomfortable truth is this: every time you type something into ChatGPT, Gemini, Claude, Meta AI, Copilot, or Alexa, you are contributing to a training dataset. Your medical questions. Your relationship problems. Your financial details. Your uploaded documents. You are not the customer. You are the curriculum. And the companies doing this have made it as hard as possible for you to stop.
我們總是理所當然地把所有內容,統統傾瀉在那個對話框裡,以為是白嫖了免費的 AI 算力。斯坦福大學 HAI 研究所發布的一份報告,揭示了矽谷這些 AI 是如何使用我們的數據。
他們詳細解讀了 Amazon、Anthropic、Google、Meta、Microsoft、OpenAI 幾個公司的 28 份隱私條款。
得出的結論是,我們根本不是什麼 AI 馴獸師,就是 AI 的養料,自以為在白嫖 AI 的算力,其實是巨頭在白嫖你的「人生」。


不同大模型的隱私數據具體情況,以及大模型的訓練數據來源。每列代表一個聊天機器人,每行代表一種具體的隱私處理操作(例如默認使用聊天進行訓練、是否提供清晰退出機制、無限期保留/定期刪除對話、是否利用聊天數據來優化體驗),和數據來源(用戶上傳的文件、反饋、公開網路數據等)。「是」表示該公司的隱私政策明確指出其使用該來源的數據訓練 AI 模型,「否」表示明確聲明不使用,而「未說明」則表示未涉及該來源或內容模糊不清。
如果非要說在這個時代,AI 大模型的護城河是什麼,我想這些珍貴的人類對話輸入,一定能排上號。
這場 150 萬人的抵制,十分令人感慨。它或許也標誌著 AI 的競爭逐漸走進入了下半場。在算力、參數量和跑分數據逐漸趨同的今天,大多數的用戶不再盲目崇拜最強的模型。
同時還開始有了許多新的考量,例如這家公司在給誰服務?它在用誰的錢?它會如何對待我的隱私?
當 AI 越來越像一個無所不知的虛擬伴侶時,它背後的公司底色,或許某天會變成懸在我們頭頂的一把達摩克利斯之劍。

我們也必須認清一個現實,在未來的五年裡,一定會有無數個更值得替換的模型誕生。今天為了 Claude/Gemini 拋棄 ChatGPT/Grok/……,明天可能就會為了另一個更特立獨行的 AI 拋棄 Claude。
工具的更迭是不受我們控制的。但我們的「上下文語境」,在這個數字世界裡沉澱下來的工作習慣、思維方式和個人邊界,是完全屬於我們自己的。
不要讓任何一個平台,以「記憶」的名義,把我們綁架。隨時做好將自己的「數字靈魂」打包帶走的準備,才是在 AI 時代保持清醒和自由的唯一方式。






