近日,谷歌面向開發者群體推出了Vibe Coding XR組件。
據悉,這是一套高效的快速原型開發工作流,為Gemini Canvas引入了開源的XR Blocks框架,具備強大的功能,能夠將用戶給出的提示詞迅速轉化為具備完全交互能力且擁有物理感知的WebXR應用,尤其適用於Android XR設備。這一特性使得創作者既能在桌面端的模擬環境中進行初步探索,也能在Android XR頭顯中快速測試智能空間體驗。

在當今科技發展的浪潮中,大型語言模型(LLM)與智能體工作流正以前所未有的態勢改變著軟體工程和創意計算領域,由此催生了Vibe Coding的流行趨勢。Vibe Coding這一概念最早由OpenAI聯合創始人Andrej Karpathy提出,其核心思想是讓大型語言模型充當「翻譯官」,直接將人類的意圖轉化為可運行的代碼。
目前,像Gemini Canvas這類工具已經在2D與3D網頁開發中成功實現了這一目標。然而,XR領域的開發卻面臨著獨特的挑戰,其開發門檻相對較高。XR原型開發往往需要整合多個零散的感知處理流程,還要與複雜的遊戲引擎以及底層傳感器對接模塊進行適配,這一系列複雜的工作使得許多開發者望而卻步。
而Vibe Coding XR的出現打通了這一技術壁壘。該工作流將Gemini作為創意協作的得力夥伴,同時搭配谷歌基於網頁的XR Blocks框架。通過結合Gemini強大的長上下文推理能力、專用的系統提示詞以及挑選的代碼模板,系統能夠自動處理複雜的空間邏輯。它可以在短短60秒內將自然語言直接轉化為可運行的、具備物理感知的Android XR應用。






