GitHub的Lvmin Zhang聯合斯坦福大學的Maneesh Agrawala,發布了一項突破性的新技術FramePack,通過在影片擴散模型中使用固定長度的時域上下文,可以更高效地生成時間更長、質量更高的影片。
根據實測,基於FramePack構建的130億參數模型,只需一塊6GB顯存的顯卡,就能生成60秒鐘的影片。
FramePack是一種神經網路架構,使用多級優化策略,完成本地AI影片生成。
目前,它底層基於定製版的騰訊混元模型,不過現有的預訓練模型,都可以通過FramePack進行微調、適配。
典型的影片擴散模型在生成影片時,需要首先處理此前生成的帶有噪音的幀,然後預測下一個噪音更少的幀,而每生成一幀所需要輸入的幀數量,就是時域上下文長度,會隨著影片的體積而增加。
這就對顯存有著很高的要求,一般至少得有12GB,而如果顯存不夠多,生成的影片就會很短,質量很差,生成的時間也會很長。
FramePack會根據輸入幀的重要性,對所有輸入幀進行壓縮,改變為固定的上下文長度,顯著降低對顯存的需求,而且計算消耗與圖片擴散模型類似。
同時,每一幀畫面生成之後,都會實時顯示,方便即時預覽。
FramePack還可以緩解「漂移」(drifting)現象,也就是影片長度增加、質量下降的問題,從而在不顯著犧牲質量的同時,生成更長的影片。
FramePack數據格式支持FP16、BF16,顯卡硬體支持RTX 50、RTX 40、RTX 30系列顯卡,除了RTX 3050 4GB幾乎所有的近代顯卡都沒問題。
在RTX 20系列和更老顯卡上尚未經過驗證,也沒有提及AMD、Intel處理器的需求。
作業系統支持Windows、Linux。
性能方面,RTX 4090經過teacache優化之後,每秒可以生成大約0.6幀。