在iOS 17.2 Beta版中,蘋果添加了一項功能,允許iPhone 15 Pro和iPhone 15 Pro Max錄製空間影片,該影片專為即將推出的Apple Vision Pro頭顯而設計。由於Vision Pro尚未上市,因此無法在蘋果設備上以3D形式觀看空間影片。
然而,空間影片內容可以在Meta Quest 3和其他3D設備上觀看,這要歸功於YouTuber Hugh Hou分享的解決方法。本周早些時候,Hou描述了如何操縱空間影片,使其在Meta VR頭顯上運行。
日前,蘋果發布iOS 17.2 Beta 2更新,新增iPhone 15 Pro、iPhone 15 Pro Max空間影片錄製功能,並支持在Vision Pro上進行沉浸式觀看。
要啟用空間影片功能,用戶需在「設置」中打開「Spatial Video for Apple Vision Pro」選項。蘋果表示,拍攝時需要橫向握持設備,影片錄製規格為30fps/1080p,一分鐘的影片占用約130M的存儲空間。啟用該功能後,用戶會在相機應用的「影片」界面中看到一個新的「空間」選項。
需要注意的是,雖然用戶現在可以使用iPhone 15 Pro拍攝空間影片,但只能在iPhone端以2D的形式觀看。蘋果的計劃是當Vision Pro在2024年初發布時,藉助Vision Pro,則可獲得真正的3D空間效果。
當然,YouTuber Hugh Hou採用了獨特的解決方法:首先需要運行iOS 17.2 Beta版的iPhone 15 Pro才能錄製空間影片。測試版可供開發者和公開測試人員使用,下載非常簡單,只需前往iPhone設置應用程序中的「軟體更新」部分並切換Beta更新即可。
iOS 17.2更新後,需要在相機設置中啟用空間影片錄製,然後,Hou指示用戶在TestFlight上獲取「Spatialify」應用程序。該應用程序提供了以Meta Quest 3或其他3D頭顯和電視可以查看的格式解碼和導出空間影片的說明,並且還有一個涉及編碼3D元數據的額外步驟。
這不是最簡單的過程,但擁有VR頭顯或3D電視並希望在Vision Pro問世之前嘗試觀看空間影片的iPhone 15 Pro用戶可能會感興趣。
此前蘋果提出並發布了空間拍攝這一技術,雖然這項技術的具體細節尚未公布,但根據此前的報道來看,如果蘋果的3D拍攝功能主要通過多攝像頭和傳感器來實現,那麼就意味著這些設備可以捕捉到物體的多個角度和深度信息,並將其合成為三維模型。同樣的這種技術也可以應用於手機、平板電腦、筆記本電腦等設備,並支持在AR應用程序中使用。
雖然蘋果並沒有公布空間影片錄製過程及如何工作,或Vision Pro上的觀看和共享體驗的詳細技術細節,而是將其視為未來產品體驗計劃的重要部分。但不可否認的是,這種能夠在真實空間中對這些信息進行處理和呈現的技術,顯然需要更加複雜的技術和算法,例如空間點雲技術、三維重建技術、可視化技術等。
從某種意義上說,蘋果的3D拍攝功能在一定程度上已經實現,但是要在全行業中真正實現還為時尚早。如果能夠實現空間拍攝,AR應用程序中的物體將會更加真實、準確,這將有助於推動AR技術的發展,並帶來更多創新的應用場景。同時三維模型也將在諸多領域大放異彩,例如通過三維模型來輔助醫生進行手術計劃和手術導航,或者是工業設計和製造過程。總之,空間拍攝這一概念代表著重要應用前景,但是要真正實現空間拍攝,還需要更多的技術突破和實驗驗證。