Google表示,其新的人工智慧模型系列有一個奇特的功能:能夠「識別」情緒。
Google上周四發布了其最新AI模型系列PaliGemma 2,該模型具備圖像分析能力,可以生成圖像描述並回答有關照片中人物的問題。Google在其博客中介紹,PaliGemma 2不僅能識別物體,還能生成詳細且與上下文相關的圖片說明,涵蓋動作、情感以及整體場景的敘述。
PaliGemma 2的情感識別功能並非開箱即用,需要進行專門的微調,但專家們仍然對此表示擔憂。
多年來,許多科技公司一直在嘗試開發能夠識別情感的AI,儘管一些公司聲稱已經取得突破,但這一技術的基礎仍然存在爭議。大多數情感識別系統都基於心理學家Paul Ekman的理論,即人類有六種基本情緒:憤怒、驚訝、厭惡、喜悅、恐懼和悲傷。然而後續的研究表明,來自不同文化背景的人們在表達情感時存在顯著差異,這使得情感識別的普遍性受到質疑。
倫敦國王學院專門研究人工智慧的研究員Mike Cook表示,情感識別在一般情況下是不可行的,因為人類的情感體驗非常複雜。雖然人們可以通過觀察他人來推斷他們的情緒,但不能做到全面且完美地解決情緒檢測問題。
情感識別系統的另一個問題是其可靠性和偏見。一些研究表明,面部分析模型可能會對某些表情(如微笑)產生偏好,而最近的研究則表明,情感分析模型對黑人臉孔的負面情緒判斷比白人臉孔更多。
Google表示,PaliGemma 2在進行廣泛測試後,評估了其在人群偏見方面的表現,結果顯示其「毒性和粗俗內容的水平低於行業基準」。但該公司並未公開測試所依據的完整基準,也沒有明確表示所進行的測試類型。Google披露的唯一基準是FairFace—— 一個包含數萬張人像的面部數據集。Google聲稱,PaliGemma 2在該數據集上的表現良好,但一些研究者批評FairFace存在偏見,認為該數據集僅代表少數幾種群體。
AI Now研究所首席AI科學家Heidy Khlaaf表示,解讀情緒是一件相當主觀的事情,它超越了使用視覺輔助工具的範圍,深深地嵌入在個人和文化背景中。
目前,歐盟的《人工智慧法案》禁止學校和僱主部署情感識別系統,但允許執法機構使用。
Khlaaf表示,如果這種所謂的情感識別是創建在偽科學假設的基礎上的,那麼這種能力可能會被用來進一步歧視邊緣化群體,例如在執法、人力資源、邊境治理等領域。
Google發言人表示,公司對PaliGemma 2的「表徵危害」測試充滿信心,並進行了廣泛的倫理和安全評估。