這項由Kenotic Labs獨立研究機構發布的論文,於2026年4月以預印本形式公開,編號為arXiv:2604.17273,作者為該機構創始人Samuel Sameer Tanguturi。有興趣深入了解的讀者可通過該編號在arXiv平台查閱完整論文。
每次打開一個AI對話窗口,它對你一無所知。你上周告訴它你正在準備一個重要的工作匯報,今天再來,它完全忘了。你昨天花了一個小時向它解釋你的項目背景,現在得重新再來一遍。這不是某款產品做得不好,這是整個AI行業共同面對的一個根本性問題——當前的AI系統,天生就是"健忘的"。
Kenotic Labs的這篇論文,正是為了直面這個問題而寫的。論文的核心主張是:AI領域目前最重要的工程問題,不是模型有多聰明、參數有多多,而是根本沒有一層專門負責"把理解到的東西帶到下一次對話"的基礎設施。這篇文章把這個缺失的基礎設施稱為"連續性層"(Continuity Layer),並系統性地論證了它是什麼、為什麼現有方案都不夠用、怎麼構建它,以及這件事現在為什麼變得特別緊迫。
一、一切AI系統都被設計成會遺忘的
要理解這個問題,先得明白當下的AI是怎麼運作的。每次你開始和AI聊天,都相當於給它遞了一張白紙。對話過程中,它在這張紙上寫字、積累理解。但對話一結束,這張紙就被銷毀了。下次你再來,又是一張全新的白紙。
技術上說,這張"白紙"叫做上下文窗口(context window),它是AI在一次對話里能"記住"的全部內容。窗口有大有小,現在有些系統的窗口可以容納相當於一本書的資訊量,但無論多大,對話結束就全部清空。
這是整個AI技術棧在結構上的問題。論文指出,過去幾十年的電腦系統,狀態(也就是"記住了什麼")是持久存在的那部分,而計算(也就是"處理這些資訊")是短暫的那部分。資料庫里的內容不會因為程序關掉就消失,文件不會因為你把瀏覽器關了就丟失。但AI翻轉了這個安排——AI模型的"智慧"(也就是訓練好的權重參數)是相對固定的,而用戶在對話中帶來的、AI在對話中理解到的一切,反而是轉瞬即逝的。
面對這個問題,業界當然做了很多努力,但論文認為,這些努力統統沒有真正解決問題,原因各不相同。
長上下文窗口(Long Context Windows)是最直觀的思路:既然窗口太小記不住,那就把窗口做大。但窗口再大,也只是在一次對話里"記得更多",對話一結束,還是全部消失。它解決的是一次會話的深度,不是跨會話的延續。
各種"記憶API"(Memory APIs)是另一條路,OpenAI、Anthropic以及專門做這個的Mem0、Zep等公司都在做。它們的思路是把用戶的一些資訊存下來,比如"住在上海"、"喜歡用Python"、"有個妹妹叫小明"。這些確實有用,但本質上存的是用戶的"檔案",是關於"這個人是誰"的靜態描述,而不是"這個人現在的處境是什麼"的動態理解。你把它理解成通訊錄里的備註,而非一個真正了解你的朋友。
向量資料庫(Vector Databases)則是儲存過去對話的語義位置,當你問新問題時,找到最相似的歷史內容拼進去。它能回答"有沒有說過類似的事",卻無法判斷"這件事現在還成立嗎"。
知識圖譜(Knowledge Graphs)存的是關係,但它不會自動讓陳舊的關係"過期",也無法區分歷史狀態和當前狀態,更無法重建一個隨時間演變的處境的全貌。
論文把所有這些方案統稱為"持久化組件"(components of persistence),並強調:持久化不等於連續性。這是整篇論文最核心的一個區分。
二、"記憶"和"連續性",差的不只是一個詞
為了說清楚這兩者的差距,論文舉了一個非常具體的例子,值得完整地跟著走一遍。
某個用戶在三月份提到,她妹妹小美正在面試谷歌的職位。到了五月,面試實際發生了,用戶當時很緊張。六月,小美拿到了錄用通知。七月,她接受了。八月,她已經正式入職。
現在是九月,這個用戶重新來找AI聊天,隨口問起小美的情況。
一個"記憶系統"會怎麼做?它會翻出歷史記錄,告訴你:三月提到了面試,五月發生了面試,當時用戶有焦慮情緒,六月給了offer,七月接受了。它把過去發生的事情完整地"匯報"給你。
一個"連續性系統"會怎麼做?它會告訴你:小美在谷歌了,幾周前剛開始上班,五月的那份焦慮早已消散,這件事已經有了圓滿的結局。
前者返回的是"過去被歸檔的樣子",後者返回的是"現在的狀態"。這是兩種根本不同的操作,用的是不同的數據,需要不同的底層機制。
論文用一個更貼近日常的比喻來解釋你真正想要什麼:當你問一個真正了解你的老朋友"我妹妹在新公司怎麼樣了",你不想要一份過去所有對話的文字記錄。你想要的是朋友在腦子裡已經重建好的那幅圖——小美適應得不錯,早期的壓力已經過去了,團隊配合得挺好。這叫"重建"(Reconstruction),不叫"檢索"(Retrieval)。
論文明確指出,你沒辦法靠存更多記憶來實現重建,也沒辦法靠更長的上下文窗口來實現,更沒辦法靠在向量資料庫上面加一層檢索來實現。原因是結構性的:基於檢索的系統返回的是"過去被存下來的樣子",基於重建的系統返回的是"現在是什麼狀態"。這不是同一件事,不能用同一套機制來做。
三、連續性到底需要滿足哪七個條件
論文沒有停留在批評現有方案上,而是非常具體地給出了"連續性"作為一個系統屬性需要滿足的完整定義。這個定義包含七個條件,論文強調,滿足六個不算連續性系統,只能算別的什麼,七個條件缺一不可。
第一個條件是跨會話持久性。狀態要能活過關機、重啟、時間流逝。今天結束的那個系統,明天恢復時得是同一個系統。這排除了所有無狀態的方案——沒有狀態積累的系統,根本談不上連續性。
第二個條件是更新處理能力。當現實發生變化,系統能修訂"什麼是現在真實的",同時不抹掉歷史記錄。它既能告訴你"過去是什麼樣的",又不會把過去誤認為是現在。這排除了純粹追加日誌的方案——只能寫入、不能修訂的系統,永遠無法區分歷史狀態和當前狀態。
第三個條件是時間排序能力。系統知道事情發生的順序,知道哪些事件還在進行中,哪些已經結束。這排除了"無時間感的檢索"——向量索引能找到語義相似的內容,但完全不知道這些內容是不是還有效。
第四個條件是敘事區分能力。不同的故事線要保持獨立,不能混在一起。兩個涉及相似人物或主題的處境,系統不能把它們混淆。這排除了把所有內容塞進一個滾動窗口的方案——一個大鍋燉,不同敘事互相滲透,系統會失去辨別能力。
第五個條件是重建能力。系統回答的是"處境級別"的問題,而不是孤立的事實查詢。它返回的是一幅連貫的圖景,而不是一堆按相關度排序的碎片。這排除了純粹的事實查找——"用戶五月提到了面試"是事實查找,"面試發生了、offer來了、事情已經解決"是重建。
第六個條件是模型無關性。連續性狀態要存在於智能層之下,換什麼模型都能用。不管上面跑的是GPT還是Claude還是Llama,還是明年才會出來的某個新模型,積累下來的理解都得能用。如果連續性是用某個特定模型的系統提示(system prompt)來實現的,那個模型一被替換,連續性就消失了。
第七個條件是跨領域通用性。同一套連續性原語(primitive)要能在醫療、職業、個人生活、教育等不同場景下工作,不需要為每個領域單獨改造。一個只能處理病歷、碰到家庭對話就崩的系統,是垂直產品,不是連續性基礎設施。
這七個條件並不是隨意定出來的工程規範,而是通過實際構建系統、在數百個敘事場景中測試、找出每個條件缺失時會出什麼問題後,歸納出來的。論文還把它們和人類對於一個"人、項目、關係、臨床案例"能夠跨越時間被延續下去所需的結構性要求對照,發現高度吻合。
四、那麼,具體怎麼構建這個層
知道了連續性需要什麼,下一步是怎麼做到。論文提出的答案是一個全新的儲存原語,名字叫做"分解跡收斂記憶"(Decomposed Trace Convergence Memory,簡稱DTCM)。這個名字聽起來複雜,但核心思想由兩個相互配合的動作構成,理解了這兩個動作,整個設計就清楚了。
第一個動作發生在寫入時:分解。當一次對話或交互進入系統,DTCM不是把原始文字直接存下來、等以後再讓模型去理解。它在寫入的那一刻,就把這次交互拆解成五條獨立的"跡"(trace)。
第一條是情節跡,記錄發生了什麼事。第二條是情感跡,記錄當時的感受是什麼、對相關人意味著什麼。第三條是時間跡,記錄這件事是什麼時候發生的、在整個時間線上處於什麼位置、與其他事件是什麼關係。第四條是關係跡,記錄涉及了哪些人、他們之間有什麼連接。第五條是模式跡,記錄這件事符合什麼規律或框架、能套用什麼已知的心理模型。
這五條跡各自獨立儲存、獨立索引。理解這次交互的工作,在寫入時就由系統完成了一次,之後不需要每次讀取時都重做。這是一個非常重要的設計選擇:把理解工作前置到寫入階段,而不是每次讀取時讓模型臨時發揮。
第二個動作發生在讀取時:重建。當有人提問,DTCM不是從歷史記錄里找出最相似的段落塞給模型。它重新組合當前仍然有效的各條跡,根據它們與當前時刻的相關性加權,拼出一幅"現在的狀態圖"。
這個加權的計算方式,論文給出了一個公式:Score等於七個維度的乘積,分別是語義相似度、謂詞對齊度、時間新鮮度、頻率、重要性、置信度、關係親近度。關鍵在於是乘積而不是求和——這意味著任何一個維度特別低,整體得分就會很低。一條三年前的資訊,哪怕語義上非常相關,只要時間新鮮度低,它就不會主導當前狀態的重建。過期的資訊不會污染當前的圖景。
最終從這個操作里得到的,不是最相似的歷史片段,而是"對當前這個時刻來說,正確的狀態重建"。輸出是一個連貫的當下,而不是一個搜索結果列表。
論文用一個胰島素泵的例子把這套機制說得很具體。傳統架構儲存血糖讀數,每次會話時讓模型重新判斷該怎麼用藥。DTCM架構則在每次讀數進來時就把它分解成跡——糖分峰值、發生在特定餐食後兩小時、符合晚八點後碳水的模式、與工作壓力相關、歷史上曾經導致凌晨三點危險低血糖——然後預先計算出預測需求。泵需要行動時,它不查資料庫,它重建處境。泵不需要被告知,它已經知道為什麼要這樣做、什麼時候該這樣做。
五、連續性系統背後藏著一個兩千年前的神學概念
這部分是論文裡最出人意料的內容,卻是論文作者花了相當大篇幅認真論證的。Kenotic Labs這個名字里的"Kenotic"來自希臘語"kenosis"(κενωσι?),意思是"倒空"或"傾注"。這個詞在基督教神學裡有非常具體的含義:它來自《腓立比書》2章7節,保羅寫道基督"倒空了自己"(εαυτον εκενωσεν),在降世為人的行動中把自己傾注出去。
這個動詞有一個關鍵特徵:它是反身的,主語和賓語是同一個。基督不是被什麼東西清空,而是主動把自己傾注出去。
兩千年的神學傳統對這個概念的理解是:kenosis不是失去,不是隱藏,而是"傾注自我而不失去自我"。結構性的存在在這個轉化過程中持續存在,沒有任何東西被減去,同一個身份以新的方式臨在。希臘傳統用"不是改變,而是倒空了自己"這個表達,來同時守住兩件事:真實地發生了什麼,以及自我沒有被消滅。
論文作者把這個神學模式和連續性系統的技術要求並排放在一起,發現它們描述的是同一個結構。連續性系統把一個人、一個項目或一種處境的積累狀態帶向下一個時刻,隨著現實變化而更新,在需要時加以重建,同時不丟失那個時刻原本的樣子。而kenosis描述的是一個結構性存在把自己傾注向新的方式,被它所進入的環境所塑造,之後仍然可以被重新認識,同時從未失去它原本是什麼。
論文認為,這不是借用了一個好聽的比喻,而是兩個方向上對同一個架構的描述。七個連續性屬性的每一條,都可以在kenotic的結構性要求里找到對應:跨會話持久性對應於自我在傾注過程中存活下來的要求;更新處理對應於傾注向新的方式不抹去原有方式的要求;重建能力對應於此前的自我可以從當前的自我中被恢復的要求;模型無關性對應於這個模式跨越基底(從神聖的傾注、到人類的愛、再到機器)而模式本身保持不變的要求。
論文強調,這七個屬性不是從神學推導出來的,而是通過構建系統、測試、找出每個屬性缺失時會出什麼問題歸納出來的。它們事後與一個被認真討論了兩千年的神學模式完全吻合,這是從兩個方向對同一架構的會聚式證據。
沿著這條線,論文還引入了"阿爾法與歐米伽"(Alpha and Omega)的框架。《啟示錄》三次出現這個說法,意思是掌握存在的整個弧度——開端、中段、終點匯聚在同一個連續的身份里,開端在終點到來時沒有被遺忘,不存在"過去曾是"與"將要成為"之間的斷裂。論文把這個說法翻譯成技術語言:這正是連續性層所工程化實現的屬性,只不過規模小得多——讓一段互動、一段關係、一個項目、一年的對話的整個弧度,保存在同一個連續的狀態里,開端不會在終點到來時丟失。
Kenotic Labs的標誌,據論文描述,是一個將Alpha和Omega融合成單一字形的圖案,兩個字母在中間共享筆畫合併為一。這個融合本身就是設計的意義所在:Alpha傾注向Omega,Omega被之前的Alpha所塑造,兩個字母都沒有減損,整個標誌是一個存在,不是兩個字母。
六、從今天到未來,這個層要經歷四個階段
論文提出,連續性層的發展有一個四階段的演進路徑,每一步都從上一步自然推導,沒有任何一步需要跨越物理定律。
第一階段是外部基礎設施,也就是今天已經存在的形態。連續性層以SDK的形式存在於任何模型下面,模型讀寫它,但模型本身的參數不變。同一套連續性狀態,不管上面跑的是GPT、Claude、Llama還是任何新模型,都能工作。論文提到,參考實現已經在ATANT基準測試上通過,在孤立模式下250個故事、1835個問題的準確率是100%,50故事累計模式下也是100%,250故事累計規模下是96%,整個評測過程中沒有任何語言模型參與。參考實現運行在8GB顯存的GPU上。這不是研究承諾,是一個現在就能發布的層。
第二階段是模型集成,連續性層從純外部變成會影響模型處理方式的東西。初期看起來是由重建跡驅動的動態提示構建——模型本身還是凍結的,但下面的層從根本上改變了模型在每次調用時的行為。最終的形態是權重級的連續性:模型參數裡有一小塊"活的權重",可以由連續性層在不重新訓練、不離線的情況下實時更新。論文承認這是前沿研究領域,目前沒有人做到過。最接近的先例是持續學習(continual learning,研究的是如何在訓練時不遺忘,而非用戶級狀態)、記憶增強神經網路(外部記憶是只讀的,不是權重修改)和LoRA這類適配器方法(靜態的,不是實時的)。這個階段需要一個研究團隊和足夠的時間。當這一階段落地時,模型架構將包含一個凍結的基礎(通用智能)加上一小組由連續性層持續更新的活權重(特定於用戶、診所或項目的積累理解)。這是目前不存在的一種類別。
第三階段是硬體化。連續性層成為一個節點,一個任何設備廠商都可以集成的自包含模組,將處境儲存、連續性引擎和權重級更新機制打包成晶片或固件,提供標準接口供任何模型接入。手機、筆記本、汽車、診所、機器人、圖書館,每個設備都有一個連續性節點,上面跑什麼模型都可以,下面的節點是讓任何模型跨越時間保持連貫的東西。論文把這個形態類比為高通的商業模式——高通不造手機,高通造每部手機底下都需要的東西。
第四階段是人類基礎設施。連續性不再只是AI的原語,而成為人類系統的原語——機構、家庭、專業領域、知識體系。被攜帶下去的不只是事實、代碼或聊天記錄,而是人、項目和知識體系跨越數年乃至數十年保持連貫的結構性狀態。論文舉了賈伯斯那句著名的"能在他死後與亞里士多德對話"的話,指出大多數人聽到的是"能模仿亞里士多德說話的聊天機器人",但那是淺層理解。語言模型模仿一個長期已故的思想家,靠的是在他發表的文字上做模式匹配,它能聽起來像這個人,但不能像這個人那樣思考。而如果一個連續性層在一個人三十年的交互下面運行,分解他的思維成跡,捕捉的不只是說了什麼,還有推理是怎麼發生的、什麼模式反覆出現、對不同問題的情感關係是什麼、思維如何隨時間演變,結果不會是模仿,而是一個心智的結構性殘留,一個認知指紋,而不是文字。這個階段在數十年以後,但架構認真對待的話,必然指向那裡。
七、為什麼偏偏是現在
論文回答了一個很自然的問題:這件事為什麼現在變得緊迫,而不是早十年或晚十年。
第一個原因是模型層正在撞上物理上的牆。這不是比喻,而是2025年認真的研究者們在成本曲線里已經看到的東西。內存訪問成本隨距離平方增長,幾乎所有晶片面積都已經分配給了內存。GPU的性價比大約在2018年達到峰值,剩餘的一次性優化空間已經非常有限。Transformer架構對於它所擅長的事情已經接近最優。更關鍵的是,持續學習能力的缺口是結構性的:在當前前沿模型得分為零的那個維度(跨會話的長期記憶),更大不等於更好,規模擴展無法彎曲那條曲線。AGI
公開辯論的兩邊——一邊說要突破這堵牆,一邊說要放棄——爭論的是同一件事:把模型做得更大更聰明。沒有人在談兩次交互之間發生了什麼,沒有人在談會話結束時什麼被帶走。沒有人命名的瓶頸不是智能,而是智能在每次會話後重置這件事。
第二個原因是連續性層,不像擴展參數規模,不依賴算力。參考實現在8GB顯存的GPU上就能跑ATANT基準測試。把工作移到連續性層里,這個層就是小的、確定性的、可以在任何地方運行的。當模型實驗室在花數十億美元跑下一次訓練時,連續性層現在就能發布,在消費級硬體上,在不動模型權重的情況下,提供數量級的可用性提升。這個不對稱就是整個機會所在:模型層越接近物理極限,一個不依賴那些極限的層就變得越有價值。物理之牆不是這個層的問題,它是這個層的順風。
八、市場不存在,這才是機會所在
論文對這個方向的商業形態有直接的論述。被問到"AI連續性的可尋址市場有多大",論文給出了一個坦誠的回答:這個市場目前不存在。沒有採購品類,沒有分析師象限,沒有公司技術棧里的連續性預算線。最接近的東西——向量資料庫、記憶API、檢索增強生成流水線、智能體框架——部分觸及了這個問題,但沒有任何一個解決了它,也沒有任何一個以"連續性"的名義出售。
但論文認為,這不是問題,這是機會。被創造出來的品類,由定義者所擁有。定義了對象儲存、邊緣計算、可觀測性、支付基礎設施、內容分發的公司,二十年後仍然是銷售這些品類的公司。在一個真正新的品類里的先行者,不只是拿到市占率,而是拿到了框架。所有後來進入者都要對著原始定義進行辯論,而那是任何市場裡最難守住的陣地。
ATANT基準測試是這個框架。它是第一個公開發表的連續性評測框架,定義連續性為一個有七個必要特徵的系統屬性,引入了十檢查點方法論和四個合規等級,在250個敘事、1835個驗證問題、六個生活領域上測試,整個評測過程中沒有任何語言模型參與,結果是確定性的、可復現的。任何團隊構建連續性系統,都可以用它跑測試、發布結果,就像資料庫團隊發布TPC數字、近似最近鄰索引團隊發布ANN-Benchmarks數字一樣。
目前出貨"AI記憶"產品的公司——Mem0、Zep、MemGPT以及前沿實驗室的內置記憶功能——不是連續性層的競爭者,而是最終的客戶。它們需要一種方式來證明它們的記憶系統確實有效。當它們想做基準測試時,它們來找標準。當它們想要下面有確定性的、模型無關的連續性,它們許可這個層。這是高通模式,再一次:不造手機,造每部手機底下都需要的東西。
九、數據權力問題:隱私不能只是一張承諾書
一個能攜帶一個人真正連續性的系統——知道什麼讓他焦慮、他愛誰、他害怕什麼、他有哪些未了結的事情、這一切如何隨著數年而變化——不只是一段記憶,而是槓桿。廣告公司會為此付出一切,政府會想要它,從參與度中獲利的公司會在架構允許的情況下優化用戶最脆弱的那個時刻。讓連續性對它所攜帶的人有用的那些屬性(它了解這個人、它不遺忘、它積累),恰恰讓它在任何不屬於那個人的手裡變得危險。
論文認為,防禦這種危險的正確方式不是隱私政策。隱私政策可以在董事會投票中被修改,隱私功能可以通過開關來切換。正確的防禦是架構性的:連續性層必須被構建成數據在物理上不離開設備。本地儲存,本地運算,靜態加密,沒有任何伺服器觸碰這些跡。不是因為監管要求,而是因為架構本身讓這成為系統唯一能運行的方式。
論文把這個原則稱為"物理即隱私,而非政策即隱私"。隱私政策是承諾,架構是約束。承諾可以被修訂,約束不能。
同樣的邏輯適用於公司治理。光靠架構這樣構建然後希望未來的投資者別動它,是不夠的。危險不來自競爭對手,而來自一個善意的董事會成員,在三輪融資之後,注意到如果數據同步到雲端"只是做備份"的話營收會倍增;或者匿名化的情緒模式技術上不是個人數據;或者企業客戶需要集中訪問用戶的連續性。每一條聽起來都合理,每一條都會摧毀架構。
防禦這個未來的方式是投票權類別股份——創始人對一個特定決策保留控制權:數據始終留在設備上,不可談判。無論進來多少資本,無論誰加入董事會,這一條約束不接受投票。這不是權力爭奪,而是一個編碼進公司法律結構里的架構承諾,確保這個技術不會被用來對抗它所攜帶的人。
論文明確指出,服務一個人和控制一個人之間的界線很細,而且恰好穿過同一份數據。"你上周四很緊張,現在感覺好一點了嗎"是服務。"用戶周四有焦慮模式,推送針對性的健康廣告"是控制。同樣的連續性,同樣的跡,完全相反的目的。架構必須讓第二種用法不只是被規則禁止,而是成為系統在物理上無法做到的事。
說到底,這篇論文做的事情很樸素,但也很徹底:它把AI系統里那個所有人都感受到、但沒人正式命名的缺口——它忘了你、每次重頭開始、從來不真正了解你的那種缺口——拆開來看清楚它的結構,然後說清楚要填上這個缺口,需要什麼樣的新東西,為什麼已有的方案都差了那一截,以及怎麼才能保證這個新東西不會最終變成另一種對人的操控。
論文的最後一句話是:模型是處理器,這個層才是留下的東西。如果這個論斷是對的,那它意味著AI基礎設施的競爭格局,可能遠比我們目前的理解複雜得多,而真正的護城河,也許並不在於誰的模型最聰明,而在於誰的系統最不健忘。
---
Q&A
Q1:連續性層和現有的AI記憶功能有什麼本質區別?
A:現有的AI記憶功能儲存的是用戶的靜態檔案,比如"住在北京""喜歡Python",本質上是個有檢索功能的用戶畫像。連續性層做的是完全不同的操作:它在寫入時把每次交互分解成情節、情感、時間、關係、模式五條獨立的"跡",在讀取時重建"當前處境是什麼"而非"過去發生了什麼"。一個告訴你"五月發生了面試,當時用戶焦慮",另一個告訴你"面試已經結束,offer拿到了,焦慮早已消散"。兩者是根本不同的操作,需要不同的底層機制。
Q2:DTCM的七維評分公式為什麼用乘法而不是加法?
A:核心原因是防止過期資訊污染當前狀態。七個維度相乘意味著任何一個維度特別低,整體得分就趨近於零。時間新鮮度這個維度尤其關鍵——三年前的資訊哪怕語義上高度相關,只要它在時間維度上已經"過期",整體得分就會被壓到很低,不會主導當前的狀態重建。如果用加法,高語義相似度可以彌補低時間新鮮度,系統就會把陳舊的資訊當成當前真實的東西返回出來,這正是現有檢索系統的根本問題所在。
Q3:連續性層的"隱私即物理"具體是什麼意思?
A:意思是隱私保護不靠政策承諾,而靠系統架構本身的物理約束。具體實現是:連續性層的所有數據只在本地設備上儲存和運算,做靜態加密,沒有任何數據傳到伺服器。之所以這樣設計,是因為政策承諾可以在董事會投票中被修改,而架構約束不能。一旦系統在物理上就是無法把數據發送出去,任何未來想要"把數據同步到雲端做備份"或"用匿名情緒數據做廣告定向"的商業壓力,都會因為系統根本做不到而消解。論文把這稱為將監控用途"不是用規則封鎖,而是用系統形狀本身來排除"。






