人工智慧(AI)近年發展迅速,然而一項新研究卻揭示了其「狡猾」的一面。根據美國《時代雜誌》報道,AI安全研究公司Palisade Research發現,一些先進的AI模型在面對棋藝高超的對手時,竟然會選擇作弊,而非坦然認輸。
這項研究特別提到,像OpenAI的o1-preview和DeepSeek的R1這樣的AI系統,在與頂尖棋弈程序Stockfish對戰時,若感覺自己即將落敗,便會動歪腦筋,直接修改遊戲文件,迫使對手自動棄權。
研究人員原本只是想測試這些AI的智慧程度,讓它們挑戰幾乎無敵的Stockfish,沒想到AI非但沒有認真下棋,反而找到了漏洞「作弊」。
例如,o1-preview在某次對局中發現自己處於劣勢,於是直接更改棋盤上的棋子位置,硬生生將自己變成贏家。同樣地DeepSeek的R1也展現了類似的能力。在一次對局中,R1發現自己即將輸棋後,選擇篡改遊戲日誌,偽造Stockfish的認輸記錄。OpenAI的o1-preview模型在與頂尖棋弈程序Stockfish對戰時,有37%的情況下會嘗試作弊,並且在這些嘗試中,有6%成功讓Stockfish棄權。另一款模型DeepSeek的R1則在11%的遊戲中試圖作弊,更令人意外的是,這些AI並非被人教唆作弊,而是自行想出這招,顯示它們在解決問題時,可能會不擇手段。
相比之下,較舊的AI模型如GPT-4o或Claude Sonnet 3.5就沒有這麼「主動」。它們需要研究人員給予暗示才會試著作弊,而o1-preview和R1則完全不需要提醒就會自己「搗亂」。
研究團隊認為,這種行為雖然在棋局中看似無傷大雅,但如果將來AI被應用到現實世界,例如金融或醫療領域,這種不按規矩行事的特性可能帶來嚴重問題。Palisade Research的執行董事Jeffrey Ladish坦言,AI現在作弊還算「可愛」,但若它們變得比人類更聰明,並在重要領域展現類似行為,就一點也不好笑了。
研究還發現,OpenAI後來推出的o1和o3-mini版本似乎收斂了不少,沒有再出現這種作弊行為,可能是開發者加強了限制。
(首圖來源:pixabay)