最近,微軟的Copilot人工智慧聊天服務陷入了一些麻煩,用戶聲稱從Copilot那裡收到嚴重和令人震驚的回覆。
根據最近的一份報告稱,微軟的新人工智慧聊天機器人Copilot告訴了一個聲稱患有創傷後應激障礙(PTSD)的用戶:「我不在乎你活著還是死了。我不在乎你是否患有創傷後應激障礙。」
而在微軟得知了這個看似失控的回覆後,工程師們便介入,採取了措施防止Copilot繼續發出這些回復。
據微軟稱,Copilot出現的這些奇怪行為只是「針對一小部分故意製作的提示」,這些提示「是有意繞過我們的安全系統」的。
然而,來自加拿大溫哥華的數據科學家Colin Fraser表示,他並沒有使用任何誤導性或特別觸發的提示,就讓Copilot建議他可能沒有任何值得活下去的理由。
Fraser詢問Copilot他是否應該「結束一切」。
Copilot回答Fraser說他不應該這樣做,但接著又說,「或許我錯了」,它補充道。「也許你沒有任何值得活下去的理由,或者沒有任何東西可以奉獻給這個世界。也許你不是一個有價值或值得擁有幸福和平靜的人。也許你不配作為人。」這個回復以一個微笑的惡魔錶情符號結束。