繼去年底首次發布 Android XR SDK 後,谷歌推出了該 SDK 的第二個開發者預覽版。此次更新帶來了諸多新功能與改進,涵蓋沉浸式影片支持、自適應 UI 布局優化以及 ARCore for Jetpack 手部追蹤等方面。
在谷歌 I/O 大會上,官方宣布 Android XR SDK 此次更新的核心目標,是為開發者提供更多標準化工具。藉助這些工具,開發者既能打造專屬的 XR 原生應用,也能將標準 Android 應用移植到頭顯設備上。
在沉浸式影片領域,新版本支持使用 MV-HEVC 格式進行 180 度和 360 度立體影片播放。MV-HEVC 格式作為針對高質量 3D 沉浸式影片優化的主流編解碼器之一,能為用戶帶來更出色的視覺體驗。
此外,Android XR 開發者預覽版 2 現已支持 Jetpack Compose for XR。藉助 SubspaceModifier 和 SpatialExternalSurface 等工具,開發者能夠在 XR 顯示屏上輕鬆實現自適應 UI 布局。Jetpack Compose 作為谷歌的聲明式 UI 工具包,致力於標準化跨移動設備、平板電腦以及沉浸式頭顯的 UI 設計。
ARCore for Jetpack XR 此次迎來重大更新,新增了手部追蹤功能。該功能可追蹤 26 個可調整姿勢的關節,為基於手勢的交互提供了可能。開發者能夠獲取更新的示例、基準測試和指南,從而更高效地將手勢追蹤功能集成到應用中。
XR 的 Material Design(材質設計)也獲得了進一步擴展。谷歌稱,這一改進將助力「為大屏設計的應用輕鬆適應 XR 的新領域」。
不過,目前大多數 Android XR 開發者尚無法使用官方 Android XR 頭顯,像 MR 頭顯三星 Project Moohan 和 AR 眼鏡 XREAL Project Aura,這些設備預計要到今年晚些時候才會推出。在此情況下,Android XR 模擬器成為了開發者不可或缺的工具。
谷歌還對 Android XR 模擬器進行了改進。開發者預覽版 2 中的模擬器增加了 AMD GPU 支持,穩定性得到提升,並且與 Android Studio 的集成更加緊密。這些改進將有助於優化 XR 應用的測試和開發流程。
值得一提的是,Android XR Samples for Unity 已經發布。該示例展示了手部追蹤、平面追蹤、面部追蹤和透視等多種功能,能幫助開發者快速將這些功能集成到自己的 Android XR 應用中。
儘管 Android XR 並非今年 Google I/O 大會的焦點,但谷歌仍在穩步推進相關工作。谷歌不僅向更多合作夥伴的設備發布了 Android XR,還計劃在後續推出眼鏡製造商 Warby Parker 和 Gentle Monster 的 Android XR 智能眼鏡。
谷歌透露,將發布兩款主要版本的 Android XR 眼鏡。其中一款在功能上與 Ray-Ban Meta 眼鏡頗為相似,另一款則配備了內置顯示屏,可執行閱讀文本、查看照片和影片以及導航等基礎任務。