金磊 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
不是5秒,不是10秒,更不只是1分鐘。
AI視頻生成,正式迎來無限時長的時代!
來,話不多說,直接來看一部AI版《羅馬假日》:

視頻地址:https://mp.weixin.qq.com/s/c9r537ZRmu-Wk2BkYE4x7Q
而就是這么一部小短劇片段,它的“起點”,僅僅就是一張照片和一句Prompt:
- 身著優(yōu)雅西裝的歐美男子與一位美女漫步在羅馬街頭,分享各自的生活趣事,眼神中滿是欣賞;夕陽西下,余暉灑在兩人臉上,彼此深情對視。

△視頻生成輸入的第一幀圖像
或許你會說,這不就是AI一口氣生成出來的37秒視頻嗎?
非也,非也。
它創(chuàng)作出來的方式,實則是先生成一個30秒的視頻,然后用一套“Extend(擴展)大法”繼續(xù)去延長視頻的時間。
方法就是pick剛才已經(jīng)生成的視頻,再來一句Prompt:
- 兩個人擁抱到了一起。

最后,在前面所有畫面人物都沒有發(fā)生變化的同時,AI根據(jù)后續(xù)的Prompt,繼續(xù)擴展了7秒鐘。
通過這種方式,如果你想繼續(xù)延長視頻的情節(jié)和時長,只需反復(fù)上述操作即可。
這就是無限時長的由來了。
而這個AI,正是昆侖萬維最新升級的SkyReels-V2。作為全球首個無限時長視頻生成模型,實現(xiàn)了電影級理解,并且全面開源。
整體體驗下來,它的特點可以總結(jié)為一句話——很懂拍電影。
不僅在時長方面可以做到無限,對視頻內(nèi)容的連續(xù)性、鏡頭的自如切換,以及主體的一致性等等都做到了不錯的把控。
那么昆侖萬維為什么要搞這樣的一個AI呢?
這是因為全球AI視頻生成領(lǐng)域正面臨三大核心痛點:
- 時長限制:主流模型僅能生成5-10秒片段,無法滿足影視級敘事需求
- 專業(yè)度缺失:通用模型難以理解鏡頭語言、運鏡邏輯等電影語法
- 質(zhì)量妥協(xié):提升分辨率往往犧牲運動流暢性,物理合理性頻遭詬病
這也正是SkyReels-V2要解決的問題。
接下來,為了把這種效果體現(xiàn)得更加明顯一些,我們繼續(xù)一波實測走起。
實測AI視頻的無限生成
這一次,我們以5秒為一個單位,一點一點地把玩一下這個無限生成模式。
先“喂”給SkyReels-V2這樣的一張靜態(tài)圖片:

然后我們先讓這張漫畫風的圖片,按照物理規(guī)則動起來:
- 保持漫畫風格,畫面中的樹、湖面、男孩的頭發(fā),隨風飄動。
繼續(xù)用Prompt來擴展后續(xù)視頻內(nèi)容:
- 男孩子突然發(fā)現(xiàn)魚漂和魚竿開始抖動,臉上露出驚喜的表情。
- 男孩立馬站起身來,雙手用力拽魚竿。
- 男孩身子往后退,用力拽魚竿,沒釣到魚。
就在這么5秒、5秒的擴展之后,我們就完成了一小段動漫的場景:


視頻地址:https://mp.weixin.qq.com/s/c9r537ZRmu-Wk2BkYE4x7Q
值得一提的是,剛才我們完整展示的2個視頻的BGM,同樣也是由昆侖萬維的音樂生成AI——Mureka來生成的哦~
除此之外,官方這次也展示了幾個不錯的效果。
例如女生化妝的AI視頻生成:

視頻地址:https://mp.weixin.qq.com/s/c9r537ZRmu-Wk2BkYE4x7Q
以及水母在海洋徜徉:

視頻地址:https://mp.weixin.qq.com/s/c9r537ZRmu-Wk2BkYE4x7Q
那么在看完效果之后,接下來的一個問題就是:如何做到的?
背后的技術(shù)也開源了
在科普SkyReels-V2技術(shù)之前,我們還應(yīng)當先了解一下當前視頻生成模型在技術(shù)上普遍存的問題。
歸結(jié)來看,主要分為三點,即:
- 通用多模態(tài)大語言模型(MLLM)難以理解專業(yè)電影語法(如鏡頭構(gòu)圖、演員表情和攝像機運動);
- 現(xiàn)有優(yōu)化目標未能充分探索運動質(zhì)量;
- 擴散模型和自回歸模型各自的局限性導致難以兼顧視覺質(zhì)量與時間連貫性。
對此,昆侖萬維團隊提出的SkyReels-V2,便是通過結(jié)合多模態(tài)大語言模型(MLLM)、多階段預(yù)訓練、強化學習和擴散強制框架,實現(xiàn)了在提示遵循度、視覺質(zhì)量、運動動態(tài)和時長方面的突破性進展。

首先,SkyReels-V2的首要創(chuàng)新是設(shè)計了一套全面的視頻結(jié)構(gòu)化表示方法,將通用描述與專業(yè)鏡頭語言相結(jié)合。
這個系統(tǒng)包括主體描述(類型、外觀、動作、表情、位置等)、鏡頭元數(shù)據(jù)(鏡頭類型、鏡頭角度、鏡頭位置等)、攝像機運動(例如推拉搖移等專業(yè)運動參數(shù))。
為實現(xiàn)上述專業(yè)維度的高精度標注,研發(fā)團隊針對性訓練了多個專家級模型。
例如鏡頭標注器,它可精確識別鏡頭類型、角度與位置,在測試中分別取得 82.2%、78.7% 和 93.1% 的準確率。
表情標注器則能深度解析七種基礎(chǔ)情緒及其強度變化,平均精度達到 85%;還有攝像機運動標注器,采用6DoF坐標參數(shù)化運動,單類型運動識別準確率89%。
這些專家模型與基礎(chǔ)MLLM的知識被蒸餾到統(tǒng)一的SkyCaptioner-V1模型中,最終形成了一個平均準確率達76.3%的專業(yè)視頻標注系統(tǒng),尤其在鏡頭相關(guān)字段上表現(xiàn)突出(鏡頭類型識別準確率93.7%)。

除此之外,SkyReels-V2還采用一個三階段漸進分辨率預(yù)訓練框架:
- 低分辨率階段(256p)
- :通過圖像-視頻聯(lián)合訓練建立基礎(chǔ)生成能力
- 中分辨率階段(360p)
- :應(yīng)用更復(fù)雜的數(shù)據(jù)過濾策略提升清晰度
- 高分辨率階段(540p)
- :專注于視頻目標,采用更嚴格的質(zhì)量標準
訓練中采用雙軸分桶框架(時長桶×寬高比桶)和FPS歸一化技術(shù),有效處理視頻數(shù)據(jù)的時空異質(zhì)性。優(yōu)化器使用AdamW,學習率從1e-4逐步降至2e-5,確保穩(wěn)定收斂。
而針對視頻生成中常見的運動質(zhì)量問題(幅度不當、主體變形、物理規(guī)律違反等),團隊設(shè)計了半自動偏好數(shù)據(jù)收集管道。
它包含兩種類型的數(shù)據(jù),一個是人工標注數(shù)據(jù),由專業(yè)人員評估運動質(zhì)量,形成1200個視頻測試集;另一個是自動生成數(shù)據(jù),通過漸進失真創(chuàng)建技術(shù)模擬各種運動缺陷。

基于這些數(shù)據(jù),團隊訓練了專門的獎勵模型,并應(yīng)用流匹配直接偏好優(yōu)化(Flow-DPO)技術(shù),通過三階段訓練(每階段20k數(shù)據(jù))顯著提升了運動質(zhì)量。

SkyReels-V2的核心突破是擴散強迫(Diffusion Forcing)技術(shù),將傳統(tǒng)擴散模型轉(zhuǎn)化為支持無限長度生成的架構(gòu)。
這個技術(shù)同樣包含三個關(guān)鍵點。
一是幀導向概率傳播(FoPP)時間步調(diào)度器,它通過動態(tài)編程計算非遞減噪聲計劃,將組合空間從O(1e48)減少到O(1e32)。
二是自適應(yīng)差異(AD)時間步調(diào)度器,可以支持從同步擴散(s=0)到自回歸生成(s=T)的靈活調(diào)整。
最后則是上下文因果注意力,通過推理時緩存歷史樣本的K、V特征,顯著降低計算開銷。
這一框架使模型能夠以前一視頻段的最后幾幀為條件,生成新的幀序列,理論上支持無限長度擴展。為防止誤差累積,團隊采用輕微噪聲標記已生成幀的穩(wěn)定化技術(shù)。
從昆侖萬維以及第三方測試結(jié)果來看,在SkyReels-Bench評估中,SkyReels-V2在指令遵循方面取得了顯著進展,同時在保證運動質(zhì)量的同時不犧牲視頻的一致性效果。

在VBench1.0自動化評估中,SkyReels-V2在總分(83.9%)和質(zhì)量分(84.7%)上均優(yōu)于所有對比模型,包括HunyuanVideo-13B和Wan2.1-14B。這一結(jié)果進一步驗證了SkyReels-V2在生成高保真、指令對齊的視頻內(nèi)容方面的強大能力。

以上便是SkyReels-V2能夠解鎖如此實力背后的關(guān)鍵技術(shù)了,并且已經(jīng)全部開源。
AI重塑內(nèi)容生產(chǎn)
在解讀完技術(shù)之后,我們還有個話題值得聊一聊——SkyReels-V2的問世,意味著什么?
歸結(jié)為一句話,或許就是:
正在重塑、改寫創(chuàng)意內(nèi)容產(chǎn)業(yè)的DNA。
SkyReels-V2展現(xiàn)的不僅是技術(shù)能力,更是一種新型創(chuàng)作哲學的雛形。
當AI能夠理解并執(zhí)行“日落時分的海灘漫步”這樣的抽象指令,并自主處理鏡頭運動、場景過渡等專業(yè)細節(jié)時,人類的角色正在從執(zhí)行者轉(zhuǎn)變?yōu)?strong>“創(chuàng)意導演”——專注于概念構(gòu)思與審美判斷等高層次創(chuàng)造活動。
這種人機協(xié)作模式指向了一個更為深刻的變革:藝術(shù)創(chuàng)作的重心從技藝展示轉(zhuǎn)向思想表達。
創(chuàng)作者可以將更多精力投入敘事結(jié)構(gòu)、情感傳遞和概念創(chuàng)新等真正體現(xiàn)人類獨特性的領(lǐng)域,而將技術(shù)實現(xiàn)交由AI處理。
這或許正是文藝復(fù)興時期“藝術(shù)家作為思想家”理想在數(shù)字時代的全新詮釋。
而目光聚焦于昆侖萬維本身,可以說它再一次走到了生成式AI大浪潮的前面:不僅有技術(shù),還有產(chǎn)品,更是做到了全面開源。
據(jù)高盛預(yù)測,到2027年AI生成視頻市場規(guī)模將突破萬億美元,而昆侖萬維SkyReels-V2的橫空出世,正以“無限時長+電影級質(zhì)量+精準控制”三位一體的突破性技術(shù),率先打開這片藍海市場!
至于SkyReels-V2及其后繼技術(shù)將如何繼續(xù)改寫創(chuàng)意產(chǎn)業(yè)的DNA,取決于我們?nèi)绾我灾腔叟c遠見引導這場變革。
不過可以肯定的一點是,當技術(shù)最終成功隱入創(chuàng)作的背景,成為思維的自然延伸時,人類講故事的方式,以及通過故事理解世界的方式,都將發(fā)生我們今日難以想象的深刻轉(zhuǎn)變。
最后,體驗地址放下面了,感興趣的小伙伴快去嘗鮮吧~
SkyReels官網(wǎng)地址:
https://www.skyreels.ai/home
GitHub地址:
[1]https://github.com/SkyworkAI/SkyReels-V2
[2]https://github.com/SkyworkAI/SkyReels-A2
HuggingFace地址:
[1]https://huggingface.co/collections/Skywork/skyreels-v2-6801b1b93df627d441d0d0d9
[2]https://huggingface.co/Skywork/SkyReels-A2
論文地址:
[1]https://arxiv.org/abs/2504.13074
[2]https://arxiv.org/pdf/2504.02436
熱門跟貼