Meta 此前透露,計劃在今年下半年為 Horizon Desktop Editor 增添 AI 環境生成功能。屆時,創作者僅需輸入文本提示,就能輕鬆生成整個 3D 世界。同時,Meta 團隊還展示了相關效果演示,讓外界對這一功能充滿期待。

此前,Meta 就曾預告過全新的 3D 基礎模型 AssetGen 2.0。該模型由 Meta 自主研發的兩個子模型構成,一個專注於生成 3D 網格,另一個負責生成紋理。AssetGen 2.0 運用單階段 3D 擴散模型,能夠生成具有顯著細節提升和更高保真度的 3D 網格,確保 3D 資產具備精細的幾何一致性。

AssetGen 1.0 在生成 3D 資產時,需先根據提示生成預期資產的多個 2D 圖像視圖,再將圖像輸入到另一個生成資產的神經網路中。而 AssetGen 2.0 則採用單階段 3D 擴散模型,可直接從文本提示生成 3D 資源,並在大型 3D 資產語料庫中進行訓練。

在幾何估計方面,AssetGen 2.0 使用 3D 擴散技術;在紋理生成上,它引入了全新方法,有效改進了視圖一致性、紋理繪製效果,還提升了紋理解析度。簡單來講,AssetGen 2.0 模型能夠生成質量更高的 3D 資產,甚至可以構建出完整的 3D 世界。

目前,Meta 正利用 AssetGen 2.0 積極創建 3D 世界,並計劃於今年下半年向 Horizon 創作者開放這一功能,集成到 Horizon Desktop Editor 中。

Meta 表示,希望 AssetGen 2.0 能夠幫助用戶輕鬆創建 3D 體驗,為美術從業者、設計師和開發者開闢全新的創意空間。倘若這項技術能夠達到預期效果,創造交互式社交虛擬現實世界的門檻將大幅降低,原本需要數小時才能完成的工作,未來可能僅需幾分鐘就能搞定。