Meta 正在申請一項新專利,旨在使用機器學習、AR 和 AI Agent 補充用戶感知。藉助該技術,未來的 AR 眼鏡將不僅僅是視覺的延伸,更可為視障、聽障用戶群體提供視覺、聽覺乃至觸覺輔助體驗。
在技術實現層面,這款 AR 眼鏡內置了高度集成的系統,該系統能夠全方位捕捉用戶的位置資訊、環境數據以及周邊物體的相對位置關係。除了眼鏡上固定的高清攝像頭與精準麥克風外,系統還利用了內置加速度計,甚至能夠接收來自「智能手杖、假肢」或特殊手套的手勢與觸覺反饋,構建起一個全方位、多維度的感知網路。
通過先進的 AI 與機器學習算法,這一系統能夠對這些海量數據進行深度合成與分析,包括精確的定位與映射、細緻的圖像解析等,以識別並評估環境中可能存在的各種風險。無論是疾馳而過的車輛,還是遠處隱約可聞的警報聲,都逃不過它的敏銳「耳目」。
當系統檢測到潛在威脅時,它會立即根據用戶的特定需求進行轉換與傳達。對於視力受限的用戶,系統會迅速生成清晰的音頻提示或觸覺震動,引導他們避開危險;而對於聽力受損的用戶,眼鏡則會以醒目的視覺信號形式,提醒他們注意視線之外的聲響或物體的存在。
Meta 在專利文件中指出:「這一系列技術的深度融合,將為用戶帶來前所未有的多元化輸出體驗。無論是輕鬆閱讀路邊的指示牌,還是精準感知空間的深度與廣度,乃至即時識別環境中的特定對象,都將成為可能。」