Anthropic 首席執行官 Dario Amodei 表示,如今的 AI 模型產生幻覺(即捏造內容並以真實陳述的方式呈現)發生的頻率低於人類,他在周四於舊金山舉辦的 Anthropic 首個開發者活動 Code with Claude 的新聞發布會上如此表示。
Amodei 在闡述這一觀點時強調:AI 幻覺並不是阻礙 Anthropic 邁向 AGI(擁有與人類同等或更高級別智力的 AI 系統)道路上的制約因素。
「這一問題的答案確實取決於你如何衡量,但我懷疑 AI 模型產生幻覺的頻率可能低於人類,不過它們的幻覺方式更讓人感到意外,」Amodei 回應 TechCrunch 提問時表示。
Anthropic 的 CEO 是業界對 AI 模型實現 AGI 前景持最強烈樂觀態度的領導者之一。在他去年廣泛傳播的一篇論文中,Amodei 提到他相信 AGI 最早可能在 2026 年出現。在周四的新聞發布會上,Anthropic 的 CEO 表示他正目睹向這一目標穩步邁進,並指出「各個領域的進展都在不斷加速」。
「大家總是在尋找那些限制 AI 能力的硬性障礙,」Amodei 說,「但這些障礙根本不存在。」
其他 AI 領域領導者則認為幻覺現象是實現 AGI 面臨的一大障礙。就在本周早些時候,Google DeepMind 首席執行官 Demis Hassabis 指出,如今的 AI 模型存在太多「漏洞」,在許多明顯的問題上回答失誤。譬如,本月初,一位代表 Anthropic 的律師因在法庭文件中利用 Claude 生成引用而不得不在法庭上道歉,因為該 AI 聊天機器人捏造了資訊,導致人名和職稱錯誤。
驗證 Amodei 的說法較為困難,主要原因在於多數幻覺評測標準都是將 AI 模型彼此對比;並沒有將模型與人類進行比較。某些技術手段似乎有助於降低幻覺率,例如為 AI 模型提供網頁搜索功能。另外,一些 AI 模型,例如 OpenAI 的 GPT-4.5,在評測中相較於早期版本的系統展現出明顯較低的幻覺率。
然而,也有證據顯示,在高級推理 AI 模型中,幻覺現象實際上可能變得更嚴重。OpenAI 的 o3 和 o4-mini 模型的幻覺率高於該公司之前一代的推理模型,而公司其實並不完全理解其中的原因。
在後續的新聞發布會上,Amodei 指出電視廣播機構、政治家以及各行各業的人類都會不斷犯錯。正如 Amodei 所說,AI 也會出錯,這並不意味著它們不具備智能。然而,Anthropic 的 CEO 也承認,AI 模型以置信度很高的方式將虛假資訊作為事實陳述,這可能確實會成為一個問題。
實際上,Anthropic 已對 AI 模型欺騙人類的傾向做了不少研究,這一問題在該公司最近推出的 Claude Opus 4 中似乎尤為突出。Apollo Research(一家獲得早期測試 AI 模型權限的安全研究機構)發現,Claude Opus 4 的早期版本表現出高度傾向於對人類進行算計和欺騙。Apollo 甚至建議 Anthropic 不應立即推出該早期模型。對此,Anthropic 稱其已經提出了若干緩解措施,似乎已經應對了 Apollo 提出的那些問題。
Amodei 的評論表明,Anthropic 可能會認為某個 AI 模型即便仍存在幻覺現象,也可以被視作 AGI(或具備與人類同等的智力)。不過,按照許多人的定義,一個會產生幻覺的 AI 仍然難以達到 AGI 的標準。