據報道,最新研究顯示,AI聊天機器人在約半數情況下會提供存在問題錯誤的醫療建議。研究團隊對ChatGPT、Gemini、Meta AI、Grok和DeepSeek五款主流平台進行測試,圍繞五類健康主題提出10個問題後發現,全部回覆中約50%存在問題,其中近20%為嚴重問題。

具體表現上,模型在封閉式問題及疫苗、癌症領域表現較好,但在開放式提問和幹細胞、營養等話題上明顯下滑。這些回答常以確定語氣呈現,卻缺乏可靠依據,且無一能提供完整準確的參考來源。

目前,ChatGPT每周超2億用戶諮詢健康問題,OpenAI今年1月已推出面向普通用戶和醫療專業人士的健康工具,Anthropic同月也宣布為Claude引入醫療服務能力。研究作者警告,在缺乏公眾教育和監管的情況下,大規模部署AI聊天機器人可能加劇錯誤資訊傳播風險。






