宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

Apple解釋兒童性虐審查為何沒實行 有可能造成嚴重後果

2023年09月03日 首頁 » 熱門科技

Apple解釋兒童性虐審查為何沒實行 有可能造成嚴重後果


兒童性虐待事件令人髮指,因此通過科技去打擊這些行為也成為一個受矚目的解決方式。Apple在2021年曾宣布掃描用戶的iCloud文件尋找兒童性虐內容的計劃但未有實行,最近就對此作出進一步解釋。

Apple在2021年宣布將會在其iCloud上實行自動檢查,如果發現有兒童性虐待材料(CSAM)就會響起警報並報告給有關部門。不過這個功能當時引起很大爭議,主要是其提供了一個「後門」令用戶的私人數據被審查,而Apple最後暫緩功能的推出,最終完全停止開發。

最近有新的團體要求Apple實施CSAM掃描,Apple方面堅持不開發類似的功能,同時解釋放棄開發iCloud CSAM掃描功能的原因,是因為就算是「出於好意的設計,也無法在實踐中得到充分的保護」。而且掃描每個用戶在iCloud上存儲的私人數據,會帶來新的威脅,並可能導致滑坡效應,產生一系列不良後果。Apple方面表示取而代之的是名為「通信安全」的工具,在設備上直接偵測有疑點的照片並發出提醒,避免兒童向他人發送或收取私密色情照片。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新