去年,當生成式人工智慧產品開始向公眾推出時,在全世界掀起了一陣興奮和恐懼的狂潮。但如今與幾個月前相比,人們對AIGC的興趣正在有眼可見地減弱。
Big Thing OR party trick?
AIGC工具僅憑文字提示就能創造圖片或文字類內容,這著實讓人驚嘆。矽谷的科技巨頭們也對這一變革性新技術的前景垂涎三尺,在經歷了多年的經濟停滯以及加密貨幣和元宇宙的失敗之後,他們寄希望於從這項技術中賺一筆大錢。
但也有人擔心,在人工智慧改變世界之後,世界會變成什麼樣子。或許數以百萬計的工作崗位會因此消失,或許人們將無法分辨什麼是真實存在的,什麼是人工智慧創造的。如果用更誇張和戲劇化的語言描述它,人類的末日可能就在眼前。這讓我們對這項技術的驚人潛力既嚮往又恐懼。
幾個月後,AIGC的發展遭遇了一系列阻礙。各國政府正在加大力度監管這項技術,創造者們正在起訴涉嫌侵犯智慧財產權和版權的行為,人們對這些產品所帶來的隱私侵犯(包括真實的和感知到的)表示反對,還有很多事故讓人們開始質疑AI聊天機器人的準確性,以及人們應該在多大程度上相信它們。
AIGC發展的前提是,人們依舊還在使用它。但最近有報道稱,消費者開始對聊天機器人失去興趣:基於ChatGPT的NewBing並未對谷歌的市場份額造成任何影響,ChatGPT首次出現用戶流失的情況,而且聊天機器人仍然容易出現基本錯誤,讓人無法完全信任。在某些情況下,它們現在可能比以前更不準確。
這個派對小把戲(意為一種不可靠的方法,策略,或者手段)已經結束了嗎?
生成式人工智慧是一項強大的技術,不會在短期內消失,利用這項新技術構建的聊天機器人是消費者最容易使用的工具之一,消費者可以直接訪問並親自試用。但最近的報道顯示,隨著最初的興奮和好奇逐漸消退,人們可能並不像許多人預期的那樣喜歡聊天機器人。
AI沒有讓微軟彎道超車
OpenAI及其ChatGPT聊天機器人迅速成為最熱門的AIGC公司和工具,無疑得益於OpenAI是首批向公眾發布工具的公司之一,也得益於其與微軟建立的價值數十億美元的合作關係。這種合作關係促使微軟在今年二月宣布,將把基於OpenAI大型語言模型(LLM)的定製聊天機器人納入其搜尋引擎必應(Bing)。微軟表示人工智慧生成式搜索是網路搜索的未來。其特點是在回答用戶提問時,會將來自多個網站的資訊整合到一個聊天回覆中,而不是只顯示一堆網頁鏈接。
隨著AIGC快速出圈,在谷歌完全主導的搜索市場上,必應突然從一個笑柄變成了潛在競爭對手,簡直成了與谷歌旗鼓相當的同義詞。因此,谷歌迅速發布了自己的聊天機器人,名為「巴德」(Bard)。Meta也不甘示弱,而且可能還在為其災難性的元宇宙戰略而耿耿於懷,發布了其大型語言模型的兩個開源版本。OpenAI還將ChatGPT授權給了其他公司,數十家公司排著隊將其應用到自己的產品中。
與幾個月前的興奮相比,AIGC的這種重塑可能還有很長的路要走。《華爾街日報》最近的一篇文章稱,新版必應並沒有得到消費者的青睞,文章引用了兩家分析公司的數據,他們認為必應現在的市場份額與1月份人工智慧之前的市場份額大致相同。(微軟認為分析公司低估了數據,但不願透露內部數據)。
根據Statcounter的數據,微軟的網頁瀏覽器Edge(消費者必須使用該瀏覽器才能訪問必應聊天工具)的用戶數量確實有所增長,但仍然微不足道,而且已經有了衰退跡象,而Chrome瀏覽器的市場份額在這段時間內有所增長。不過,微軟仍有機會。如果必應聊天可以在其他瀏覽器上更容易訪問,那麼它很可能會得到更多的用戶使用。微軟告訴《華爾街日報》,該公司計劃儘快實現這一目標。
與此同時,OpenAI的ChatGPT使用數據似乎也在下滑。據《華盛頓郵報》報道,自去年發布以來,ChatGPT網站的流量在6月份首次下降了近10%。報道稱,其iPhone應用程序的下載量也有所下降,但OpenAI不願對此發表評論。
谷歌尚未像微軟那樣將其聊天機器人廣泛整合到搜索服務中,而是將其保留在搜索主頁之外,並繼續將其定位為一種實驗性技術,「可能會顯示不準確或令人反感的資訊」。谷歌沒有回應有關Bard使用量的置評請求。
ChatGPT表現越來越糟
考慮到某些聊天機器人可能存在的問題,谷歌的做法可能是正確的。我們現在有很多聊天機器人偏離正軌的例子,從與用戶發生完全私人化的交流,到把完全不準確的資訊當做事實,再到難以遏制的固有偏見,這些似乎滲透到了所有的技術領域。雖然有些公司在一定程度上緩解了其中一些問題,但整體情況似乎是越來越糟,而不是越來越好。
美國聯邦貿易委員會正在調查ChatGPT的不準確回復。最近的一項研究表明,OpenAI的GPT-4(其LLM的最新版本)在短短几個月內就在某些方面出現了明顯的準確性下降,這表明,如果不出意外的話,模型正在隨著時間的推移而改變或被改變,這可能會導致其輸出結果出現巨大差異。新聞媒體試圖用人工智慧生成的內容來填充版面,結果卻出現了多處令人震驚的錯誤。隨著聊天機器人助推的作弊行為層出不窮,OpenAI不得推出自己的工具來檢測ChatGPT生成的文本,因為它的表現實在太糟糕了。
上周,包括OpenAI、谷歌和Meta在內的八家LLM背後的公司,將他們的模型帶到了大型黑客大會DEFCON上,讓儘可能多的人在首次壓力測試中測試他們模型的準確性和安全性,這個過程被稱為「紅色團隊」。拜登政府一直在大肆宣揚安全開發和部署人工智慧技術的重要性,並支持和推動了此次活動。拜登的科學顧問、白宮科技辦公室主任阿拉提-普拉巴卡爾(AratiPrabhakar)告訴Vox,這是一個「真正搞清楚這些聊天機器人工作得如何的機會,比如弄清讓它們脫離正軌到底有多難,或者有多容易。」
這次黑客大會的目的是為這些公司提供一些急需的數據,讓他們了解他們的模型是否會崩潰以及如何崩潰,而這些數據是由一群不同的人提供的,他們可能會用公司內部團隊沒有用過的方式進行測試。我們將拭目以待他們如何處理這些數據,他們能參加這次活動是個好兆頭,當然白宮敦促他們這樣做也是重要原因之一。
與此同時,這些模型和根據這些模型創建的聊天機器人已經被數億人使用,其中很多人都會相信這些聊天機器人所說的話。尤其是當他們可能不知道這些資訊來自聊天機器人時(例如,CNET幾乎沒有披露哪些文章是由機器人撰寫的)。
然而,各種報告顯示,公眾對一些人工智慧工具的興趣正在減弱,如果它們想繼續存在下去,就必須變得更好。我們甚至不知道這項技術是否真的可以被修復和優化,因為連它們自己的開發人員都聲稱不知道所有內部運作原理。
毫無疑問,生成式人工智慧可以做出一些驚人的事情。矽谷對它如此興奮,這麼多人願意嘗試它並非無的放矢。但鑑於其仍然普遍存在的缺陷,它目前可能僅僅只是一個「派對小把戲」。