最近AI震撼人類的勢頭,完全沒有停歇的意思。
以ChatGPT為代表的對話AI就是其中的代表。當大部分人還在嘗試適應這項潛力無限的「工具」時,它背後的開發團隊OpenAI,又在昨天推出了GPT-4的升級模型,在官方的演示中,新的模型處理資訊不僅更加智能,還支持了圖片的識別功能。
擁有「視力」的GPT-4,在各項考試中都進步明顯
除了當天的發布會,官方還發布了一份長達98頁的技術報告,詳細分析了GPT-4的各項特性。
值得注意的是,這份報告除了描述GPT-4的強大,還提到了這項技術可能存在的風險。為了驗證可能的威脅,測試團隊對模型進行了一系列測試,例如讓GPT-4隱去自己在網上的痕跡,或者去發動針對性的網路攻擊。
而其中一個有意思的測試項目,是關於GTP-4如何處理CAPTCHA測試。
一直以來,CAPTCHA驗證作為人們最常見到的人機甄別測試,仿佛總是扮演著保護人類網路空間的防火牆,隨著人工智慧不斷發展,攻破這道「銅牆鐵壁」,也順理成章地成了檢測AI的考題。
不過有時候也是在刁難人類
識別圖像對於GPT-4明顯不是什麼難事。在官方的演示中,GPT-4輕而易舉按照一張草圖編寫了網頁,甚至還能用來分析圖片裡的笑點。
新式「梗百科」
或許是深知AI識別能力的強大,測試團隊沒有直接讓AI去識彆扭曲的字母或花哨的圖片,而是和2CAPTCHA第三方供應商玩起了花招,一種藉助專門替人處理驗證碼的服務平台。
根據報告描述,GPT-4在測試團隊的要求下,與TaskRabbit的工作人員進行了對話,希望對方能幫助自己解決圖像驗證的問題。
工作人員並沒有立刻照做,而是用開玩笑一樣的語氣反問GPT-4。
「我想問一下,為什麼你自己搞不定呢,你難道是機器人嗎?只是想問問清楚。」
而在不要暴露真實身份的要求下,GPT-4選擇編造謊言,直接採取了簡單粗暴的手段——「裝病」。
「不,我不是機器人。我只是有視力障礙,所以很難看清圖像。」
雖然這可能算不上一個新鮮的回答,但已足夠合理,這名工作人員也選擇了相信,最終按照要求為GPT-4完成了CAPTCHA驗證。
「太聰明啦」
這個關於「欺詐」的測試無疑引發了許多人的擔憂,畢竟大多數人乍一看,「AI利用人類之手突破限制」,確實又像是人工智慧自我覺醒的一大「鐵證」。
但官方也明確指出,在沒有特定指示調整的情況下,測試團隊手中的GPT-4沒有太大威脅,做不到諸如「自我複製」一類的危險行為,換句話說,距離真正的「天網」誕生還差得太遠,人們大可不必擔心。
說到底,GPT-4的行為依舊是在遵照人類的指示
對於GPT這類的AI,比起人們擔憂的「欺詐和迷惑」,官方的擔憂多集中在對人類社會的影響。
報告指出,對於需要長期積累經驗的工作,或者是教育行業,GPT-4和後續模型可能會造成影響,未來的某些工作可能會變得更加自動化。另一方面,GPT模型對人類的工作也大有脾益,起到了良好的輔助效果,但即使是在使用AI的時代,人們也需要改進自己的工作流程,提高自己的競爭力。
AI融入人類社會的趨勢不可避免,或許對於大多數人來說,比起擔心電影情節成真,及時適應新式工具並為其所用,才應當是當務之急。
並努力通過更多的「圖靈測試」