在近期舉辦的 Meta Connect 大會上,Meta Reality Labs 首席科學家 Michael Abrash 發表演講,重點展望了智能眼鏡 AI 助手的發展方向,這也是他每年大會都會聚焦 VR/AR 行業趨勢的固定環節。
據悉,目前 Meta 眼鏡搭載的 Meta AI 以 「反應式」 為主,用戶可讓它播放歌曲、設計時器,遇到 「這是什麼」 這類視覺問題時,它還能通過攝影機拍圖分析後回應。不過該功能多為瞬態交互,而美國、加拿大地區已推出的 Live AI 雖支持免重複喚醒詞對話,且能實時感知視野內容,但受大模型上下文窗口限制,第一代 Ray-Ban Meta 僅支持 30 分鐘,新一代才提升到 1 小時左右。
Abrash 還提到未來智能眼鏡 AI 將能後台持續運行,不僅會實時建立 3D 地圖記錄環境、用戶動作及物體交互,還能通過存儲這些日誌提供 「情境 AI」 服務。比如用戶直接問 「今天消耗多少卡路里」「鑰匙放哪了」,不用提前錄資訊,戴眼鏡就能得到答案。
要實現這一點,需大幅提升相關晶片與算法的能效,甚至可能需要定製傳感器和晶片,目前 Meta 實驗室正推進這兩項研發;此外,眼鏡還得有獨立蜂窩連接,擺脫對手機的依賴。
值得一提的是,Meta CEO 祖克柏此前也談及 「始終在線情境 AI」,他認為其進展會快於多數人預期:「具體時間不好說,但肯定用不了五年,會更快。」