近日,海外版《外賣騎手困在系統里》在 Reddit 上發酵,獲得了超過 8.7 萬贊,直衝首頁。
一個名為 Trowaway_whistleblow 的新註冊用戶聲稱自己是某外賣平台的軟體工程師,即將離職,準備揭露公司的黑幕。
這是一個符合大眾對「萬惡資本」的想像的故事,但也是一場 AI 生成的騙局。

帖子詳細描述了平台如何操縱算法損害消費者和配送員的利益,細緻程度讓你很難懷疑這是編的:比如故意延緩普通訂單的配送速度,讓付費的優先訂單顯得更快,又或者收取所謂的「監管響應費」,實際上卻用這筆錢遊說反對司機工會。
最讓人難以接受的是:舉報人稱平台會根據司機接單的時間和頻率計算一個「絕望程度評分」(Desperation Score),如果一個司機總是在晚上 10 點上線,並且對 3 美元的低價單來者不拒,算法就會給他打上「極度渴望賺錢」的標籤。一旦被標記,系統就會冷酷地切斷高價訂單的推送。那些肥得流油的高額小費單被留給了兼職司機,以此「釣」住他們;而全職司機則被一點點榨乾。
DoorDash 首席執行官 Tony Xu 也在 X 上轉發了這篇帖子的截圖,並爆粗口回應「我靠,說得對。這不是 DoorDash,如果有人推動或容忍這種文化,我會開除他」。
Holy fucking shit is right! This is not DoorDash, and I would fire anyone who promoted or tolerated the kind of culture described in this Reddit post. There’s so much wrong with this post. - Dashers are not 「human assets.」 - Having a metric like a "Desperation Score」 is an abomination. - We’ve never had a 「Driver Benefit Fee」. - Why would you charge for faster delivery but not make it faster?? We’re not perfect by *any* stretch of the imagination, but we work every day to make our platform better for everyone who comes to it. What’s described here is appalling, and if true, whoever is operating in this manner should be ashamed.
DoorDash 確實曾因竊取司機小費被起訴,最終支付了 1675 萬美元的和解金。
零工經濟平台對勞動者的剝削早已不是秘密。紐約市配送員倡導組織 Los Deliveristas Unidos 在一份聲明中說「這些指控之所以令人不安,不是因為它們令人震驚,而是因為它們符合配送員非常熟悉的模式」。
當新的指控出現時,人們幾乎本能地選擇相信。
事實虛假,邏輯怎麼自洽?
對於一位剛剛結束假期、渴望在新年挖掘獨家新聞的記者來說,這個舉報人的料簡直就是天上掉餡餅。
Casey Newton 是 Platformer 網站的記者,他通過 Reddit 給舉報人私信,亮明身份,並留下了 Signal 賬號。九分鐘後,舉報人回復了。
他說想分享更多資訊,但其他聯繫過他的新聞機構要求的個人資訊遠遠超出他願意承擔的風險。這句話里有個小細節引起了 Newton 的注意,舉報人把「 information 」拼錯了。第一個破綻出現了:原帖的英文寫得行雲流水,怎麼可能犯這種小學生級別的錯誤?
Newton 表示會盡力匿名,但需要核實身份。舉報人問:一張打了碼的工牌行不行?Newton 說發來看看。幾分鐘後,一張疑似 Uber Eats 員工證的照片出現在聊天記錄里。

第二天早上,舉報人才再次聯繫記者。他說找到了一些文件,可以證實他的說法。附件是一份題為「AllocNet-T:高維時間供應狀態建模」的報告。這份 18 頁的文檔自稱是 Uber 公司「市場動態小組行為經濟學部門」的成果,日期標註為 2024 年 10 月 14 日,每一頁都帶有「機密」水印。

完整文檔:https://www.documentcloud.org/documents/26456842-fake-reddit-post-whistleblower-document/?ref=platformer.news
文檔的大部分內容似乎在描述「絕望程度評分」背後的 AI 系統技術架構。但讀到最後,神奇的事情發生了——它把原帖里每一條指控都坐實了一遍,包括那些跟評分八竿子打不著的東西。比如,它詳細描述了「自動化灰球協議」用來規避監管,這明顯是指 Uber 當年那套躲貓貓的黑科技。
問題來了:一份技術架構文檔,為什麼要花這麼大篇幅講監管事務?這不是此地無銀三百兩嗎?
舉報人開始催了。他說已經把文檔分享給了其他記者,這讓記者陷入了競爭的焦慮中——誰都不想被搶了獨家。他問記者打算什麼時候發表。記者問他能否介紹一些現在或以前的同事,幫助更好地理解這份文檔。舉報人說不太行。
警鈴開始響起。記者突然想到,那張員工證會不會是 AI 生成的?雖然 AI 識別自己的作品不太靠譜,但 Google Gemini 能檢測 SynthID 水印。記者把員工證上傳到 Gemini,問它是否生成過這張圖片。Gemini 回答說,這張圖片的大部分或全部內容是用 Google AI 編輯或生成的。
The Verge 也聯繫了舉報人,舉報人提供的員工證同樣被 AI 檢測工具標記為生成或編輯過:這張員工證上顯示的是 Uber Eats 的標誌,而不是 Uber 的標誌,這很奇怪。Uber 後來證實,印 Uber Eats 品牌的員工證,壓根就不存在。
資訊末日,我們怎麼核查?
對於記者來說,這類偽造的泄密事件本是職業風險的一部分。早在 2004 年,這一行就交過學費了。當時丹拉瑟(Dan Rather)在《60 Minutes》節目中報道了關於小布希總統在德克薩斯州空軍國民警衛隊服役的指控,結果那些「鐵證如山」的文件全是假的。
丹·拉瑟為此丟了飯碗,CBS 新聞部的招牌也砸了個坑。
放在以前,要偽造一份 18 頁、術語滿天飛的技術文檔,得花多少功夫?誰會閒得蛋疼,為了整蠱記者搞這麼大陣仗?誰又會專門 P 一張員工證?
但現在不一樣了,有了 AI 工具,騙子們能讓謊言跑得更快。
騙子的成本在暴跌,記者的防禦成本卻在暴漲。
事實核查剛作為一個正式概念被提出時,它背後藏著一種近乎天真的信念:只要你夠認真、夠仔細,就能把現實世界原封不動地搬到紙上。
但事實核查員核查的對象不是來自世界的事實,而是存在於語言的事態;而事實核查的目的,是還原事態和事實之間的橋樑,考證這個事態是否存在,是否(可能)構成事實。
也就是說,記者要問:這個說法有沒有出處?這個出處靠不靠譜?這個敘述能不能還原成真實發生的事?但當 AI 可以批量製造幾近完美的出處時,這座橋正在坍塌。
記者說,有了這次經歷,以後就不太可能再上類似的當了。但事實是,AI 發展如此迅速,今天能識破的招數,明天可能就失效了。學者們在 2017 年警告的「資訊末日」似乎越來越接近現實。
深度偽造技術迅速發展帶來的消極影響不僅是社會公眾會被欺騙,更在於社會公眾會把所有事物都當成欺騙,從而對社會的一切都充滿不信任。

這樣看,深度偽造所帶來的「深度」或許是,它樂於讓客觀成為你所尋找的任何事實,這也導致所謂的「真相」從來沒有被確認為某些東西,甚至它從來也不會被確認。深度偽造使得真相呈現為流動性與脆弱性的發展趨勢。人類原本寄希望於通過資訊的交換實現不確定性的消除,深度偽造卻助長了深度數據政治與社會不確定性的再生產。
懷疑與信任、希望與失望、無畏與恐懼交織在現在,我們面臨的是一個「似是而非」的未來。






