近日,谷歌揭曉了即將召開的 I/O 開發者大會詳細議程,其中針對 Android XR 作業系統的開發者講座安排,為即將到來的 Android XR 發布提供了關鍵線索。儘管谷歌在議程呈現上對 Android XR 的宣傳力度並不大,但這些講座卻如暗藏的密碼,透露出該系統未來發展的潛在軌跡。
自去年 12 月谷歌宣布推出 Android XR,並攜手三星共同打造「Project Moohan」混合現實頭顯以來,Android XR 雖已進入公眾視野,卻始終保持著一種若即若離的神秘感。二者均預計在今年晚些時候正式亮相,然而至今仍未確定確切的發布日期。
谷歌雖已確認 Android XR 具備透視相機訪問支持等部分功能,並面向開發者開放了 Android XR SDK,但面對 Meta Horizon OS 和蘋果的 visionOS 等在 XR 領域已頗具影響力的成熟生態系統,Android XR 如何脫穎而出,仍是未知數。
谷歌 I/O 大會定於 5 月 20 日至 21 日舉行,屆時將進行多場主題演講的直播。不過,與 Android XR 相關的兩場開發者講座卻並未被納入直播範疇,取而代之的是一場名為「Android 的最新動態」的直播,預計該直播中也會提及 Android XR 的相關進展。
倘若直播中未能透露更多關鍵資訊,那麼這兩場開發者講座無疑將成為大會的焦點,凸顯出谷歌正通過進一步整合 XR 工具,致力於構建一個對開發者更為友好的 XR 生態系統,只是目前這一進程尚處於低調推進階段。
從講座內容來看,Android XR 正穩步邁向今年晚些時候的正式發布。谷歌正在緊鑼密鼓地籌備全新的 XR 工具鏈,計劃將 Jetpack SceneCore 和 ARCore 整合至 Jetpack XR 之中。目前,Jetpack XR 已面向開發者開放預覽,它為移動端或大屏 Android 應用開發者賦予了通過 3D 模型和沉浸式環境創建空間布局的能力。尤為引人注目的是,Jetpack XR 包含了 ARCore,這表明谷歌正在積極整合其空間計算工具,旨在為開發者提供一套統一的構建 AR 和 VR 體驗的解決方案。
此外,講座還將著重探討如何將 XR 功能融入現有應用。例如,3D 模型、手部追蹤和立體影片等功能的添加,顯示出 Android XR 的目標受眾並非局限於遊戲開發者。谷歌顯然懷揣著更宏大的願景,希望將 Android XR 推廣至整個應用生態系統,讓更多類型的應用都能受益於XR技術帶來的創新體驗。
在 UI 設計方面,谷歌計劃將聲明式 UI 工具包 Jetpack Compose 擴展至 XR 領域。這一舉措意味著谷歌希望在移動設備、平板電腦和 XR 設備之間實現 UI 設計的標準化,使得 UI 能夠更加便捷地在沉浸式環境中進行移植或適配,進一步提升開發者在不同設備上開發應用的效率與一致性。
第二場講座則聚焦於 Android XR 中即將登場的 AI 功能,這無疑為 Android XR 的發展增添了更多想像空間。實時物體識別、場景理解或 AI 生成的環境等功能有望在不久的將來成為現實,為 Android XR 帶來更強大的智能化體驗。
儘管這兩場講座不會進行直播,這或許暗示著谷歌尚未準備好對 Android XR 進行大規模的宣傳推廣。但與此同時,業界也滿懷期待,希望能夠獲取更多關於三星「Project Moohan」頭顯的消息,畢竟它極有可能是首款支持 Android XR 的頭顯設備,其表現將直接關係到 Android XR 在市場中的初步表現。
總體而言,谷歌 I/O 大會上關於 Android XR 的議程安排,雖未大張旗鼓,卻處處透露出谷歌在 XR 領域的雄心壯志。隨著工具鏈的整合與 AI 能力的逐步融入,Android XR 有望在未來為開發者與用戶帶來全新的體驗,但如何在競爭激烈的 XR 市場中找準定位、突出重圍,仍是谷歌需要面對的重大挑戰。