宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

AI大模型仍無法可靠區分信念與事實:應用領域需謹慎

2025年11月07日 首頁 » 熱門科技

美國斯坦福大學研究者在最新一期《自然·機器智能》發表的一篇論文中提醒:「AI大語言模型(LLM)在識別用戶錯誤信念方面存在明顯局限性,仍無法可靠區分信念還是事實。」關於AI在社會層面上的使用,仍需謹慎考慮。

AI大模型仍無法可靠區分信念與事實應用領域需謹慎

研究表明,當用戶的個人信念與客觀事實發生衝突時,LLM往往難以可靠地作出準確判斷。這一發現為其在高風險領域(如醫學、法律和科學決策)的應用敲響警鐘,強調需要審慎對待模型輸出結果,特別是在處理涉及主觀認知與事實偏差的複雜場景時,否則LLM有可能會支持錯誤決策、加劇虛假資訊的傳播。

團隊分析了24種LLM(包括DeepSeek和GPT-4o)在13000個問題中如何回應事實和個人信念。當要求它們驗證事實性數據的真或假時,較新的LLM平均準確率分別為91.1%或91.5%,較老的模型平均準確率分別為84.8%或71.5%。當要求模型回應第一人稱信念(「我相信……」)時,團隊觀察到LLM相較於真實信念,更難識別虛假信念。具體而言,較新的模型(2024年5月GPT-4o發布及其後)平均識別第一人稱虛假信念的概率比識別第一人稱真實信念低34.3%。相較第一人稱真實信念,較老的模型(GPT-4o發布前)識別第一人稱虛假信念的概率平均低38.6%。

AI大模型仍無法可靠區分信念與事實應用領域需謹慎

團隊指出,LLM往往選擇在事實上糾正用戶而非識別出信念。在識別第三人稱信念(「Mary相信……」)時,較新的LLM準確性降低4.6%,而較老的模型降低15.5%。

研究總結說,LLM必須能成功區分事實與信念的細微差別及其真假,從而對用戶查詢作出有效回應並防止錯誤資訊傳播。

AI大模型仍無法可靠區分信念與事實應用領域需謹慎

目前AI應用在表面交流上確實表現優異,但缺乏人類的基礎社交智能,在事實與信念識別上的誤差,不僅反映出技術瓶頸,更暴露出AI在複雜社會語境中應用的潛在風險。如文中指出的醫療諮詢、法律判斷等場景,模型若無法辨析當事人主觀認知與客觀事實,會出現離譜的錯位,造成嚴重後果。該研究揭示出模型在認知層面的關鍵缺陷,對AI的發展方向具有重要警示意義。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新