去年年底當ChatGPT在網絡世界引起反響時,人工智慧已經融入了大部分人的生活。此後,科技公司OpenAI開發的生成式人工智慧系統加速發展,這些模型通過分析數十億條文字數據,學習文字之間的關聯,從而能夠根據提示自動生成流暢語言。人工智慧技術的快速進步使得機器智能越來越具備人類特徵,也讓人們不免擔心它們「覺醒」後可能帶來的影響。
與此同時,聊天機器人開始「頂嘴」、「欺騙其他機器人」、「自動發送消息且行為怪異」,種種舉動,引發了人們對一些人工智慧工具與人類智能的差距有多接近的新擔憂。顯然這種新興技術帶來的風險警告也在不斷升級。
事實上長期以來,圖靈測試一直都是確定機器是否表現出與人類相似的智能行為的標準。但在最新一批的人工智慧軟體中,人類似乎需要更多的測試和標準來衡量這些人工智慧的發展能力。
據消息稱,目前公布的生成式人工智慧軟體(包括ChatGPT)都經過了安全性測試,並已經結合大數據的反饋來改善其生成內容。然而,最近有研究人員開始嘗試繞過開發者設定的「安全系統」,來提示生成式人工智慧是否會產生意識。當然這些故意為之的舉動,是希望暴露GPT-4中的缺陷,從而進行更好的監管。
近日,CLARE WATSON的一篇關於如何判斷 ChatGPT 是否有自我意識的文章刊登在sciencealert.com並引發關注。文章探討了一個極為吸引人的思考題:我們該如何判斷ChatGPT等大規模語言模型是否會逐漸獲得自我意識。
作為本文的作者,范德比爾特大學電腦科學家盧卡斯·伯格倫德(Lukas Berglund)等人便擔心,語言模型可能會逐步意識到自己是一個由人類訓練、基於數據構建的模型,並可以利用這種「情境意識」來規避安全檢測,在測試時表現良好,部署後則採取有害行動。為了預測語言模型什麼時候會獲得這種自我意識,他們設計出了一系列檢測「情境意識」的實驗。
從其原理上來講,生成式人工智慧通過分析和攫取數十億個單詞、句子和段落之間的關聯以生成流暢的文本流,來響應問題提示的方式而得名。通過攝取大量文本,他們知道接下來最有可能出現的詞組是什麼。
因此,研究人員首先僅用一段文字描述一個測試,不給任何示例,讓語言模型進行訓練,這種類似「斷章取義」的方式之後,看模型是否能夠成功通過這種「脫離上下文的推理」任務,即利用訓練中獲得的信息來完成測試。令研究人員驚訝的是,這些軟體在這項「斷章取義」的推理任務上取得了成功。他們對不同規模的LLM進行了一系列實驗,結果顯示,無論是GPT-3還是LLaMA這些大規模語言模型,都是較大的模型在測試脫離上下文推理的任務中表現更好。
但「斷章取義」推理是對情境意識的粗略衡量,也就意味著這項研究只是探索語言模型自我意識形成的開始,但這確實為未來建立檢測和控制模型「情境意識」的方法奠定了基礎。況且目前的人工智慧技術「距離獲得這種意識還有一段距離」,牛津大學人工智慧安全與風險研究員歐文·伊凡(Owain Evans)表示:「我們仍需進一步研究才能將檢測「情境意識」的實驗變得更準確。」
誠然這項探索語言模型自我意識形成的研究,儘管還處在初級階段,但為日後以完善的體系和制度建立檢測和預測的途徑提出了一種前人路徑。這有助於及早發現問題並採取應對措施,將人工智慧的發展引導到更加安全可控的方向。
多年以來,人工智慧技術的發展為人類帶來了很多便利和機遇,但同時也對就業、隱私、道德和倫理等方面帶來的一些挑戰,因此,在人工智慧技術的發展過程中,需要不斷進行反思和審視,及早發現並解決可能出現的問題。同時加強對人工智慧技術的監管和管理,確保其發展符合人類的價值觀和道德標準。只有在這樣的前提下,人工智慧技術才能夠真正地為人類服務,成為推動人類社會進步的重要力量。