Meta 於近期公布了其高擬真數字人系統「Codec Avatars」的最新研究動態。該系統新增了髮型可更換功能,藉助對「頭部」和「頭髮」的模塊化建模,增強了人物外觀的自定義程度與整體逼真感。這一技術進展,無疑會助力 Meta 在虛擬社交領域加速拓展,更多細節有望在 9 月 17 日開幕的 Meta Connect 2025 大會上亮相。
Codec Avatars 是 Meta 自2015 年便開始重點投入研發的核心項目。其目標是通過高度逼真的數字人形象,為用戶帶來遠程「真實陪伴」的沉浸式社交感受。當用戶佩戴上具備面部與眼動追蹤功能的 VR 頭顯,系統便能實時渲染出與本人極為相似的虛擬形象,自然呈現表情與眼神互動,被業界視為突破「恐怖谷」效應的關鍵技術之一。
依據 Meta 最新發布的研究論文《HairCUP: Hair Compositional Universal Prior for 3D Gaussian Avatars》,研究團隊在高斯渲染(Gaussian Splatting)技術的基礎上取得重大突破,首次實現了頭髮與面部結構的分離建模。這意味著用戶無需重新進行人臉掃描,就能自由更換髮型。未來,用戶既可以從豐富的髮型庫中挑選預設樣式,也能上傳自己設計的造型,在保持高還原度的同時充分展現個性。
此外,新技術還著重優化了頭髮與面部邊緣(如髮際線、劉海等部位)的融合效果,為後續支持帽子、頭飾等頭部飾品的搭配奠定了技術基礎。
目前,生成一套高質量的 Codec Avatar,用戶需先用手機錄製自拍影片,然後在高性能伺服器 GPU 上處理約 1 小時。雖然 Meta 已構建起「手機端快速採集 雲端建模」的完整流程,但系統正式商用仍面臨兩大阻礙。
當下在售的 Quest 3 與 Quest 3S 均不具備面部或眼動追蹤功能,難以驅動 Codec Avatar 的實時表情系統。而此前擁有完整傳感器配置的 Quest Pro 已於今年初停產,短期內似乎沒有替代型號面世。
儘管蘋果 Vision Pro 已能夠在設備端本地渲染高斯數字人,但 Meta 頭顯的硬體性能還不足以支撐高質量 Codec Avatar 的實時運算,目前仍需藉助 PC 端 GPU 進行解碼與渲染。
業內人士推測,Meta 可能會率先推出 Codec Avatar 的「平面化版本」,應用於 Messenger 與 WhatsApp 等影片通話場景,作為 Meta Avatar 的高擬真替代方案。
儘管 Codec Avatars 距離全面落地還有一段路要走,但 Meta 持續釋放技術成果信號,積極推動其從實驗室走向產品化。隨著用戶對沉浸社交、數字化身份以及虛擬共在體驗的需求日益增長,該技術有望在未來幾年成為 Meta XR 生態的關鍵組成部分。