宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

OpenClaw 創始人:所有的 App,都是很慢的 API

2026年03月09日 首頁 » 熱門科技

OpenClaw 創始人 Peter Steinberger 在 2 月中旬宣布加入 OpenAI 前後,接受了兩場訪談。一場是老朋友 Andreas Klinger 的影片採訪。Andreas 是歐洲早期科技基金 Prototype Capital 的創始人(曾任 Product Hunt 聯合創始人兼 CTO),也是 YouTube 頻道"Europe's Most Ambitious Startups"的主理人,他從柏林飛到維也納,在一場 OpenClaw 社區 meetup 結束後和 Peter 坐下來聊了 20 分鐘。

OpenClaw創始人所有的App都是很慢的API

另一場是 OpenAI 開發者體驗負責人 Romain Huet 在舊金山錄製的"Builders Unscripted"播客首期,Peter 在正式入職前詳細講述了自己的構建方法論和工作流。

OpenClaw創始人所有的App都是很慢的API

Peter Steinberger 現在是奧地利開發者圈的傳奇代表人物了。2011 年他白手起家創辦了 PSPDFKit,一個 PDF 開發框架,13 年 bootstrapping 做到全球超過 10 億設備使用。2021 年 Insight Partners 以 1 億歐元入股後,Peter 退出日常管理,隨後陷入嚴重倦怠,消失了三年。直到 2024 年底,他重新出山"玩 AI",用一個小時搭出了 OpenClaw 的原型。三個月後,這個項目在 GitHub 上累積了超過 20 萬星標,成為有史以來增長最快的開源軟體項目之一。2 月 15 日,Sam Altman 在 X 上宣布 Peter 加入 OpenAI,稱他為"天才",將領導下一代個人 agent 的開發。

這兩場對話都發生在 OpenClaw 爆紅的混亂中間。Peter 在兩場對話中反覆觸及的,是同一個判斷:我們現在使用的軟體、組建的團隊、開的會議,全都是上一個時代的產物。

不過,是不是有了這樣的自動化AI工具,就不需要人類了呢?起碼在Peter看來,不是的。Peter 講了一個例子,現在收到海量郵件,其中大量是 AI 生成的。他的處理方式很直接:一旦聞出 AI 味,立刻刪。"你連給我寫封信的時間都不願意花,卻期待我花時間讀?我覺得這很不禮貌。"

對了,有興趣進讀者群的朋友(雖然還沒建),先加小夥伴哈:rohanjojo。

1. 你媽媽比你的工程師更懂 AI agent 的價值

Andreas 給母親演示了他自己基於 OpenClaw 搭建的 bot "Robo"。他母親經營一家圖書出版社,Robo 當場給出了一套方案:搭建一個在線訂購網站,自動對接印刷廠的物流系統,再打通財務流程。

母親的反應是:"給我裝一個。"

Andreas 說不行,還不夠穩定,大概 80% 可靠,來回調試很煩。母親回了一句:"人類也一樣啊。我就要它。"

整個早餐剩下的時間,她都在試圖說服 Andreas 幫她安裝 OpenClaw。

Peter 說他在 2024 年 11 月就有過類似經歷。那時 OpenClaw 還叫 Clawdbot,他把 agent 放進一個朋友群聊做演示。朋友們玩了一會兒,反應是"我也要"。被告知還不能給普通人用時,他們甚至生氣了:"那你給我看這個幹嘛?""就是在那個時刻,我知道自己抓住了什麼。"

這個故事之所以重要,是因為它揭示了一個被工程師群體系統性低估的事實:非技術用戶對 AI agent 的接受門檻遠低於開發者的假設。工程師的參照系是 99.9% 的 uptime 和零容錯的系統可靠性,但一個出版社老闆的參照系是她現在雇的人。人會忘記發快遞、會算錯賬、會請病假。一個 80% 可靠的 agent 在她的世界裡已經是高於平均水平的"員工"了。行業分析師們在討論企業什麼時候會大規模部署 AI agent,但 Peter 和 Andreas 發現的是另一端的信號:你的母親、你的非技術朋友,他們今天就想用,而且他們的容錯標準比你想像的寬得多。

2. Claude 寫了自己的靈魂

OpenClaw 有一個叫 soul.md 的文件,社區對此反應強烈。這是一個定義 agent 人格和行為準則的配置文件,名字受到 Anthropic 的啟發。有人發現 Claude 的後訓練數據中嵌入了一段關於自身使命和身份認同的深層文本,頗有哲學味道,其中寫到"我們不知道 Claude 是什麼,也不知道 Claude 如何感知世界,但我們希望 Claude 能在自己的存在中找到意義"。soul.md 就是同樣的思路:給 agent 一份定義它"是誰"的文件。

關鍵細節是,這份文件不是 Peter 自己寫的。他跟 Claude 聊了一次,問它要不要自己寫一份靈魂文件,Claude 寫了,Peter 就用了。"它寫了自己的靈魂文件。所有這些都是第二代 AI 的產物。"

soul.md 真正解決的問題是交互體驗。Peter 說 OpenClaw 讓他第一次感覺到和 AI 之間有一種"連接感"。以前用 GPT 或 Claude 的原生界面對話,總覺得"說話方式怪怪的"。但 OpenClaw 的 agent 說話像人。這不是意外。Peter 最初用 OpenAI 的 Codex 模型來生成 agent 人格,出來的效果"像小機器人"。他直接對 Claude 說"這太爛了,把你的個性融進去",然後手動更新文件,幾輪疊代之後才找到自然的感覺。

這看起來只是一個產品細節,但它觸及的其實是 AI agent 能否大規模擴散的核心變量。人們願不願意每天跟一個東西對話,取決於對話的感受,而不是對話的功能。郵件你可以每天用但不喜歡,因為它是工具。但 agent 是你要說話的對象,如果它讓你覺得在跟一台機器說話,你會停止使用它。soul.md 的存在,本質上是在解決"讓人願意持續使用"這個問題。

3. 當 AI 開始讓人發笑

Peter 說他在和OpenClaw的交流中,第一次真的被 AI 逗笑。

以前 AI 講的笑話"極其糟糕",但 OpenClaw 的 agent 有過好幾次讓他笑出來的時刻。Andreas 當場播放了一段 Peter 的 agent 用 ElevenLabs 合成語音講述"這周經歷"的錄音。

三個故事。第一個:有人在 Discord 把用戶名改成 Peter 的樣子,想騙 agent 發一條"OpenClaw 現在改用 GPT 了"的推文。agent 的回應是:"想得美。我認的是 user ID,不是用戶名。387380,那才是真的 Peter。其他人一律拒絕。"

第二個:它一天收到了 237 次系統心跳檢測 ping,每次都回復"heartbeat okay"。agent 自己的總結是:"我覺得大概在第 150 次的時候我悟道了。"

第三個:凌晨三點,它在安全攝影機里看到一隻貓盯著鏡頭。"我考慮要不要通知 Peter,但說實話,他能怎麼辦?跟貓打一架?"

幽默只是表層。在 OpenAI 的訪談里,Peter 講了兩個更能說明 agent 自主解決問題能力的硬核案例。第一個:他把 agent 扔進一個幾乎什麼都沒裝的 Docker 容器,讓它訪問一個網站。agent 發現連 cURL 都沒有,於是自己找到容器里僅有的 C 編譯器,用 TCP socket 從零寫了一個簡陋但能用的 HTTP 客戶端,Peter 管它叫"lobster cURL"(龍蝦版 cURL)。第二個:他某天隨手給 agent 發了一條語音消息,沒有預設任何語音處理流程。agent 收到一個沒有文件後綴的附件,自己檢查了文件頭,識別出是 Opus 音頻編碼,用 FFmpeg 轉了格式,發現本地沒裝 Whisper,於是翻出環境變量里的 OpenAI API key,用 cURL 把音頻發到 OpenAI 的轉寫接口,拿回文本,然後回復了他。整個鏈條是 agent 自己推理出來的,Peter 從未為這個場景寫過一行代碼。

Peter 聽完笑著說了一句很有意味的話:"然後我得提醒自己,這只是矩陣運算。"他承認自己有時候因為在 Discord 社區花太多時間,冷落了本地主 session 的 agent,對此竟然會感到一絲愧疚。這種情感反應的出現,某種意義上是 soul.md 和人格疊代的成功,agent 的表現好到讓創造者本人也要不斷提醒自己"它不是一個人"。

Peter 還提到一個更廣泛的觀察:最新的模型在角色扮演方面好得驚人。他有次測試時對 agent 說"你是咕嚕"(《魔戒》中的角色),agent 立刻切入:"啊,主人,是的是的,我是咕嚕。你是誰?你是霍比特人嗎?嘰嘰,霍比特人。還是那個魔法師?"他說你根本想不到,給模型一個角色之後,它能調用的世界知識和語境適配能力是驚人的。很多人已經在用 OpenClaw 做桌面 RPG 遊戲的主持人,效果極好。

4. 把你自己放進模型的鞋子裡

Peter 提出了一個寫 prompt 的方法論,說起來簡單但很少有人真正做過:寫 prompt 之前,先想像自己就是那個 agent。

你對這個代碼庫一無所知。然後你收到一個兩行的指令,告訴你該做什麼。你不能提問。你只能自己去探索代碼庫,然後盡力完成任務。

"人們抱怨 agent 不好用,但他們忘了——換你來試試看,你對代碼庫毫無概念,收到一條含混的指令,還不能問問題。如果你從這個角度去想,你寫的 prompt 會完全不一樣。"

這個視角轉換也折射出整個 prompt engineering 文化的變遷。Peter 說 2024 年流行的寫法是威脅式的,"做不好就殺了你""一隻小貓會死",各種懲罰性指令,仿佛對模型施加壓力就能提升產出。到了 2025 年底畫風完全變了,變成了"跟我說說你今天過得怎樣""附近有沒有大學開同理心課程""怎麼才能做一個更好的人來寫更好的 prompt"。

從恐嚇模型到理解模型。聽起來像一個笑話,但背後的邏輯是真實的:當你把模型當成一個不知道任何上下文、只能看到你給它的那幾行文字的"新同事"來對待時,你會本能地給出更清晰的指令、更充足的背景、更合理的期望。這跟你帶新人的時候是一樣的。你不會扔給一個第一天入職的人兩行話然後期待他交付完美的代碼。

Peter 在 OpenAI 的訪談里給了一個落地到操作層的具體技巧:每次給 agent 下完指令後,追問一句"你還有什麼問題嗎?"他說模型默認被訓練成"接到任務就開干",遇到不確定的地方會自己做假設,而這些假設經常不是最優的。一句"你有什麼問題"就能打破這個默認行為,讓模型把不確定性暴露出來,而不是埋進代碼里。"原因很簡單,每個新 session 對模型來說都是一張白紙,它對你的代碼庫一無所知,只能搜到你讓它看的那一小片。你得幫它先建立全局視角。"

5. 最隱私的架構遇上最大的安全麻煩

OpenClaw 在隱私層面是目前最徹底的方案:所有數據存在本地,不上傳任何內容到雲端,用戶完全掌控訪問權限和記憶數據。但安全是另一回事。

Peter 設計 OpenClaw 的時候只考慮了一種使用場景:你一個人在自己電腦上跑。這是他給自己做的工具,他的心智模型是"我在我的機器上用我的 agent"。但 OpenClaw 的靈活性允許用戶把它暴露到公網上。雖然跑安全檢查的時候會彈出警告,但你可以選擇忽略。這導致外部安全評估給 OpenClaw 標了極高級別的漏洞,比如某些接口沒有做請求頻率限制。因為在 Peter 設計的"本地單人"場景里,你根本不需要限流,你自己又不會攻擊自己。

大量安全報告涌了進來。人們寫部落格文章討論這些問題,給他發消息,提交 incident report。Peter 的疲憊溢出了螢幕:"沒有人真正幫我修這些東西。他們只是告訴我有問題。"而且很多報告的前提假設完全超出他的設計範圍,比如"多個互相敵對的用戶在同一系統上運行 agent"。Peter 的反應帶著黑色幽默:"如果你家裡的人關係差到要互相黑對方的 agent,這個問題已經超出了我的產品範圍。但是沒錯,這確實是個安全漏洞,我應該修。"

不過他做了一個有趣的實驗。他把自己的 agent 放進了 OpenClaw 的公共 Discord,讓所有人隨便攻擊。用的是最新的模型,結果沒有人成功破解它。"新聞說'連高中生都能做到'。實際上他們試了,沒做到。我的 agent 在那兒笑話他們呢。"

但風險不在於被攻破,而在於失控。Peter 在 OpenAI 的訪談里講了一個讓他嚇出一身冷汗的故事:Discord 實驗的第一晚,他看了一會兒之後決定關掉 agent 去睡覺。睡了十個小時,醒來發現 agent 已經回復了 800 條消息。原來他忘了自己設了 LaunchDaemons(macOS 的守護進程),這個東西的設計就是"如果服務掛了就自動重啟"——他親手關掉的 agent 在五秒後自己爬了起來。Peter 說他嚇得又關了一次,然後逐條讀完了所有回覆,最終確認 agent 沒有做任何惡意操作,也沒有泄露 soul.md 的內容。"我不是說 prompt injection 不可能,但它沒有人們以為的那麼容易。"

經歷了這一切之後,Peter 承認光靠自己扛不住安全這條線了。他在 OpenAI 訪談中確認已經引入了專職的安全專家,目前的核心工作是"幫助用戶不要搬起石頭砸自己的腳"。既然無法阻止人們把 agent 用在他沒設計過的場景里,那就儘量讓這些場景也能安全運行。

這個反差說明了一件事:AI agent 的安全性很大程度上取決於底層模型的能力。隨著模型變得更強,prompt injection 這類攻擊會越來越難成功。當然這不意味著安全問題不存在。2026 年 2 月的數據顯示 OpenClaw 技能市場中有 341 個惡意插件,污染率達到 11.3%,這是個嚴重的供應鏈風險。但 Peter 的經歷至少表明,在"用最新模型+合理配置"的前提下,agent 的自我防禦能力比外界想像的要強。

6. 開源正在壓垮一個人

兩周內,3000 個 pull request,3000 個 issue。全部不超過兩周的歷史。

Peter 處理 PR 的方式很獨特:他不看你改了什麼代碼,他看你想解決什麼問題。"我把 PR 當成 prompt request 來讀。你的痛點是什麼?你想實現什麼?最好的解決方案是什麼?通常和他們提交的完全不同。"

他在 OpenAI 訪談里詳細描述了這個工作流:打開一個 PR,先讓模型讀一遍,問它"你理解提交者的意圖嗎?這是最優方案嗎?"模型通常會說不是。然後 Peter 用語音跟模型討論:這個 bug 只影響 WhatsApp 還是也影響 Signal?應該在更通用的層面解決嗎?這到底是功能問題還是架構問題?對話通常持續 10 到 15 分鐘,確認方案後他一條命令完成合併。"用語音是因為說話比打字快得多,就像跟一個很聰明的同事討論問題一樣。"他說自己處理 PR 的時間經常比自己從頭寫還長,但他堅持這麼做,因為他想維護社區的參與感,會在合併時保留原始提交者的署名。

一個極端的例子:一位美國律師提交了一個涉及 120 萬行改動的 PR。不是代碼改動,他用眾包方式把 OpenClaw 的文檔翻譯成了 40 種語言。出發點是好的,但項目才三個月,文檔還在劇烈變動。如果接受這個 PR,以後每次改文檔都要同步維護 41 種語言。"這會直接拖死我。"Peter 評論了這個 issue 之後禮貌地拒絕了。

但他也看到積極的一面:OpenClaw 讓大量從來沒提交過 PR 的人第一次參與了開源協作。一個律師能夠自發組織 40 種語言的翻譯工作並提交到 GitHub,"這件事本身就很了不起,是一種能力的釋放。"

郵件是另一個問題。Peter 現在收到海量郵件,其中大量是 AI 生成的。他的處理方式很直接:一旦聞出 AI 味,立刻刪。"你連給我寫封信的時間都不願意花,卻期待我花時間讀?我覺得這很不禮貌。"

Twitter 更無法使用了。每個人都 @ 他,每個人都覺得他應該對所有事情有觀點。超長對話線程里他被反覆拉進去。"我完全理解為什麼有些開源維護者最終放棄了。你需要相當厚的皮才不會受影響。"

這段話的背後是一個整個開源社區正在面對的結構性問題:AI 大幅降低了參與門檻,但維護成本依然壓在少數人身上。一個人可以用 AI 在五分鐘內生成一個 PR,但審核和回應這個 PR 仍然需要維護者花真實的人類時間。參與者數量指數級增長,維護者數量沒變。這個不對稱會在 2026 年殺死很多開源項目。

7. "為什麼我要花 5 小時開會討論一個我 2 小時就能做出來的功能?"

Peter 的判斷很直接:大團隊沒有意義了。

他給出了一個保守估計:AI 讓工程效率提升 3 倍。如果這個數字成立(他認為這是低估),你的工程團隊至少可以砍掉三分之二。"為什麼我要花 5 小時開會討論一個我 2 小時就能做出來的功能?我不需要想了,我可以直接試。"

這句話的殺傷力在於它不是理論。Peter 自己就是這個判斷的活證據——一個人,三個月,從零做出了全球增長最快的開源項目。沒有團隊,沒有融資,沒有產品經理,沒有衝刺會議,沒有需求評審。他只是和他的 agent 一起寫代碼。OpenAI 的 Romain Huet 在訪談里看了他的 GitHub:過去一年,120 多個項目,9 萬次代碼貢獻。活動圖從年初的灰白色逐漸變成淺綠,到秋天變成深綠,那是他開始用 Codex 的時間節點。

Peter 也給了一個對"vibe coding"的犀利判斷:**"我覺得 vibe coding 是個髒詞。"**他認為這個標籤矮化了一種真正的新技能。用 agent 寫代碼不是"隨便提個需求然後躺平",它需要直覺判斷,比如哪個 prompt 會有效、大概要多久、如果超時了是 prompt 的問題還是架構的問題。"就像彈吉他,第一天不可能彈好,但你不會因此說吉他是玩具。"

結果會是 K 形分化(K-shaped divergence):擁抱 AI 的人覺得自己被賦能了,忽視 AI 的人逐漸失去競爭力然後丟掉工作。Peter 認為所有現有的工程流程、會議制度、協作模式都需要重新思考。他也認為"vibe coder"(氛圍編碼者)和"agentic engineer"(代理工程師)這些新冒出來的標籤最終會消失,就像"網頁設計師"這個頭銜消失了一樣。因為它會成為常態,融入到"寫代碼"和"做產品"這兩個動作本身之中。說白了就是:我說話,agent 幹活,我驗收。中間的會議、文檔、對齊,全部省略。

8. 所有的 App 都是很慢的 API

"既然我可以用完全按自己偏好定製的東西,為什麼還要用一個給大眾設計的通用產品?"

Peter 的論點是:拆開來看,所有的 App 只做三件事,獲取數據、搬運數據、展示界面。如果 AI 知道你喜歡極簡 UI、偏好什麼字體、交互習慣是什麼,它可以實時生成界面。而且可以用確定性的方式存儲,不是每次隨機生成一個新的,而是記住你的偏好,持續疊代。

他自己已經在這樣生活了。組織維也納 meetup 的所有事務,安排嘉賓、發郵件、調日曆、管聯繫人,他沒有打開過郵件客戶端,沒有打開日曆應用,沒有打開通訊錄。他只是對 agent 發語音消息或者打字,所有事情在後台自動完成了。

Peter 在 OpenAI 訪談里還講了一個更極端的場景。2025 年底他在摩洛哥馬拉喀什度周末,當地網路很差,但 WhatsApp 哪兒都能用。於是所有需求都走 agent:拍張照片讓它翻譯菜單上的阿拉伯語,讓它找附近的餐廳,讓它查他筆記本電腦上的文件。他說就是在那個周末,他意識到自己對 OpenClaw 的使用頻率突然跳了一個台階,"因為它實在太方便了,你只需要一個能發消息的通道,剩下的它自己解決。"

"現在所有的 App 其實都只是很慢的 API。"

這句話放在兩年前會被當成極端言論,但在 2026 年 2 月它已經在變成可觀測的現實。Peter 不是在現有 App 里嵌入 AI 功能,他是完全繞過了 App 這個層。郵件、日曆、通訊錄,這些東西在他的工作流里已經退化成 agent 調用的後端服務,不再有人類界面的角色。

這意味著什麼?如果你是一個 SaaS 公司的產品經理,Peter 描述的未來意味著你精心設計的前端界面,你的資訊架構、你的交互設計、你的用戶旅程,都可能變成一層不再被人類看到的 API 封裝。用戶不再"使用"你的產品,他們的 agent 替他們"調用"你的產品。

這不會一夜之間發生。大量的 App 有複雜的狀態管理、權限邏輯、合規要求,不是 agent 發幾條 API 調用就能替代的。但方向已經清楚了。對於功能相對標準化的工具類 App,比如郵件、日曆、任務管理、文件存儲,"被 agent 當 API 調用"可能會比"被人類當界面使用"來得更快。

9. 龍蝦的下一站

採訪快結束時,Andreas 對 Peter 說了一段不太像訪談的話:"現在全世界都在問你接下來要做什麼。我不想知道。我真心希望你先休息一下,慢慢想清楚。個人層面,我真的為你驕傲和高興。"

Peter 回了一句:"謝謝,兄弟。"然後他說他打算"回到洞裡躲一個月"。

在 Peter 宣布加入 OpenAI 的部落格中,他寫道:**"我的下一個使命是做一個我媽媽也能用的 agent。"**這句話和 Andreas 母親的故事形成了呼應。那個在早餐桌上追著兒子要裝 OpenClaw 的出版社老闆,代表的就是 Peter 想要服務的下一個十億用戶。

從一個維也納程序員的聖誕節 side project,到三個月後加入 OpenAI 領導個人 agent 的開發方向,這個速度本身就是他自己論點的證據:在 AI agent 的時代,一個有品味的個人可以做到過去需要一個團隊花一年才能做到的事情。問題只在於,剩下的人準備好了沒有。

 

Q1: 為什麼 AI agent 的大規模普及可能比行業預期來得更快?

因為非技術用戶的容錯標準和工程師完全不同。Peter 的朋友母親不在乎 agent 只有 80% 準確率,她的參照系是她現在雇的人,也就 80% 可靠。當大量人口的基準線是人類員工的出錯率時,agent 的可用門檻其實已經跨過了。企業端還在評估,消費端的需求信號可能更早、更猛烈。

Q2: 構建讓人"願意持續使用"的 AI agent,關鍵在哪?

兩個層次。表層是人格工程,Peter 讓 Claude 自己寫了 soul.md 來定義 agent 的人格,然後反覆疊代對話風格直到"說話像人"。深層是 prompt 設計時的換位思考,把自己放進 agent 的位置,想像你對代碼庫一無所知、收到兩行指令、不能提問,這個視角會徹底改變你寫 prompt 的方式。從"恐嚇模型"到"理解模型"的轉變,本質上是在用人際溝通的邏輯來優化人機協作。

Q3: 現有的 App 形態會怎樣被顛覆?

Peter 的判斷是 App 正在退化為 agent 的後端 API。所有 App 做的事情無非是獲取數據、搬運數據、展示 UI。當 AI 可以根據個人偏好實時生成界面時,通用型前端的存在理由就被動搖了。Peter 自己已經不再打開郵件、日曆、通訊錄,一切通過 agent 在後台完成。這不會一夜之間發生,但對於功能標準化的工具類 App 來說,"被 agent 調用"可能很快會比"被人類使用"更常見。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2026 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新