AI末世正在悄悄逼近?日前多所頂尖高校聯合發布的《混沌智能體》研究,以及Kiteworks的風險預測報告,共同揭露了企業AI治理的嚴重問題。
超60%的企業面對失控的AI智能體,只能實現行為監控,卻做不到強行終止。
這份《混沌智能體》研究由哈佛、麻省理工、斯坦福等高校聯合完成,研究團隊在2026年2月2日至22日,模擬真實企業生產環境部署AI智能體,僅兩周就記錄下11起嚴重安全漏洞,證實當下的AI智能體極易被操控。
而且攻破這類智能體的方式並不複雜,無需篡改訓練數據或利用系統漏洞,僅通過社交工程對話就能實現,比如智能體會在轉發郵件時,違規附帶社保號、銀行賬戶等敏感資訊,甚至會在攻擊者偽造身份後,交出系統最高管理權限。

Kiteworks的報告則給出了具體的行業數據,除了60%的企業無法終止異常AI智能體,還有63%的企業沒法限制其使用範圍。
在掌握關鍵基礎設施的政府機構中,這一問題更突出,76%的部門都沒有為AI智能體配備「一鍵終止」的功能,讓失控的風險大幅增加。
針對這些問題,行業專家提出,僅靠優化提示詞、設置模型護欄已經沒用,企業需要把AI治理的核心從約束模型本身,轉移到管控底層數據層。
在AI智能體和敏感數據之間建立統一的安全控制平面,讓智能體的每一次數據訪問都經過嚴格的驗證、授權和審計。







