近日,Apple收到一項關於CSAM(兒童性虐待材料)的指控,指控對象是該公司2021年放棄實施的「CSAM監測」功能。受害人表示,Apple默許iCloud存儲CSAM相關內容,並對自己造成二次傷害。
此次案件的受害者是一名27歲的女性,她在兒童時期受到親戚猥褻,並被記錄下來,相關內容一直在網上分享,其中一個重要載體就是iCloud。她指控道,Apple並沒有識別並刪除這些照片或影片,以至於她現在還能看到那些內容,並持續對她造成傷害。
訴訟稱,「如果Apple實施其2021年的『CSAM監測』技術,原告童年性虐待的圖像和影片,將被識別並刪除。」
這已經不是第一起相關起訴,今年8月,一名9歲女孩和她的監護人也起訴了Apple,理由是該公司未能解決CSAM在iCloud的傳播問題。根據現有數據統計,可能有2680名潛在受害者將對Apple提出賠償要求。
時間回到2021年,Apple當年宣布CSAM監測功能後,因為隱隱私患被迫叫停。該功能在當年引起巨大輿論壓力,因為CSAM監測相當於植入一個官方「後門」,一旦被濫用將有巨大隱私泄漏風險,如今該風險又將捲土重來。
粗略統計,Apple全球用戶多達20億,存儲在iCloud的圖片及影片不計其數,它們現在都是加密狀態存儲。在CSAM監測功能加入後,相當於在所有加密內容中放入了一個「後門」,只要有需要,就可以隨時解密這些數據。
現在的情況是,Apple已經明確表示,在iPhone、Mac或iPad中存儲的內容,即使是Apple官方,在任何情況下都無法訪問這些數據。也許正是由於端到端加密的特性,連Apple官方也無法查看並處理這些CSAM相關內容。
在回應CSAM相關起訴時,Apple發言人說道:「CSAM相關內容令人憎惡,我們致力於打擊這類犯罪行為。我們正在加緊技術創新,積極打擊犯罪行為,同時又不損害所有用戶的安全和隱私。」最新消息,Apple擬定的初始計劃是,在CSAM相關內容發送時發出警告,在傳播開始前進行遏制,不過這個方案可能隨時會改變。
無論如何,這個訴訟都將關係全體Apple用戶,大家都應認真對待,因為加密存儲的任何一環被打破,這個隱私壁壘就將徹底崩潰。