據外媒VideoCardz報道,英偉達正計劃將遊戲渲染技術推動一個更激進的方向——神經渲染(Neural Rendering)。簡單來說,就是讓AI來生成遊戲畫面中的所有像素,目標是所有遊戲畫面100%由AI渲染。傳統渲染依靠顯卡逐步計算幾何、材質、光照等數據來生成像素,而神經渲染則通過訓練好的神經網路,根據輸入條件直接預測和合成畫面像素。
目前我們比較熟悉的DLSS等技術,本質還是基於傳統渲染,AI只不過是將傳統渲染的畫面進行了二次優化,或者說參考原生畫面生成了更多幀。
很難說這是空穴來風。因為早在一年前,老黃就提到過類似的想法:
「遊戲中的AI——我們已經在使用AI進行神經圖形處理,只需少量輸入像素就能生成畫面像素。我們還能在幀與幀之間生成新的幀——這不是簡單的插值,而是真正的生成。未來,我們甚至能生成紋理和物體,即使這些物體原本質量較低,我們也能讓它們看起來更精美。我們還將生成遊戲中的角色——想像一下,一群六個人中,可能有兩個是真人,其餘四個則是長期使用的AI角色。遊戲將由AI製作,內置AI功能,甚至你的電腦也能通過G-Assist變成AI。你可以把電腦當作AI助手來幫助你玩遊戲。」
話雖如此,但想要真正讓玩家接受AI生成的畫面還是有點困難,為了師出有名,英偉達只能搬出環保這一口號。
據英偉達的說法,使用AI生成遊戲畫面,能減少顯卡的運算壓力,官方甚至聲稱能將功耗減半。這樣不僅可以節省能源,還可以提升續航時間。
對於台式機玩家而言可能無所謂,不過對於遊戲本、掌機玩家來說可能會有點用。