5月17日,谷歌在其I/O開發者大會上發布的最新通用大語言模型PaLM2使用的訓練數據,幾乎是2022年的上一代模型的5倍。該模型採用了3.6萬億個令牌(token)進行訓練。之前版本的PaLM發布於2022年,當時使用的令牌為7800億個。
新的模型比之前的大語言模型更小,這就意味著該公司的技術效率得以提升,但卻可以完成更加複雜的任務。PaLM2基於3400億個參數訓練,這項指標可以說明該模型的複雜程度。最初的PaLM則基於5400億個參數訓練。
因此,該模型在編程、數學和創意寫作方面的表現更為優秀。
根據公開披露的資訊,PaLM2比現有的任何模型都更加強大。Facebook在2月份宣布的LLaMA大語言模型採用1.4萬億個令牌。OpenAI上一次披露GPT-3的訓練規模時表示,它當時基於3000億個令牌。OpenAI今年3月發布GPT-4時表示,它在許多專業測試中展示出「與人類媲美的表現」。
谷歌和OpenAI都在努力吸引想要用聊天機器人代替傳統搜尋引擎,從而直接獲取答案的用戶。
谷歌在一篇關於PaLM2的博文中表示,該模型使用了一種名為「電腦優化擴張」的新技術。這就讓大語言「更高效、整體性能更好,包括加快推理速度、減少參數調用和降低服務成本。」
該模型針對100種語言進行訓練,可以執行更廣泛的任務。它已經被用於25項功能和產品,包括該公司的實驗性聊天機器人Bard。按照從小到大的規模劃分,該模型共有4種,分別是壁虎(Gecko)、水獺(Otter)、野牛(Bison)和獨角獸(Unicorn)。
隨著新的人工智慧應用快速進入主流,圍繞底層技術的爭議也越來越激烈。
谷歌高級研究科學家艾爾·邁赫迪·艾爾·麥哈麥迪(El Mahdi El Mhamdi)於今年2月辭職,主要原因就是人工智慧技術缺乏透明度。本周二,OpenAI CEO山姆·阿爾特曼(Sam Altman)出席美國國會針對隱私和技術舉行的聽證會,他也認為需要設立一套新的制度來應對人工智慧的潛在問題。