• VideoMind團隊 投稿
    量子位 | 公眾號 QbitAI

AI能像人類一樣理解長視頻。

港理工、新加坡國立團隊推出VideoMind框架,核心創(chuàng)新在于角色化推理(Role-based Reasoning)和鏈式LoRA(Chain-of-LoRA)策略。

相關論文已上傳arXiv,代碼和數(shù)據(jù)全部開源。

打開網(wǎng)易新聞 查看精彩圖片

隨著視頻數(shù)據(jù)量的激增,如何理解和推理長視頻中的復雜場景和事件成為了多模態(tài)人工智能研究的熱點。不同于靜態(tài)圖像,視頻不僅包含視覺信息,還包含時間維度上的動態(tài)變化,這要求模型在理解視頻時不僅要識別畫面中的物體和場景,還要理解這些物體和場景如何隨時間變化和相互作用。

傳統(tǒng)的基于文本和圖像的推理模型(如OpenAI o1, DeepSeek R1等)往往無法應對這種復雜的時間維度推理任務。

VideoMind框架

區(qū)別于文本和圖片,長視頻理解難以用傳統(tǒng)的單次感知 + 純文字推理實現(xiàn)。

相比之下,人類在理解長視頻(如教學視頻、故事類視頻)時往往會尋找相關片段并反復觀看,以此獲取更可靠的結(jié)論。

受該現(xiàn)象啟發(fā),作者根據(jù)視頻理解所需要的4種核心能力(制定計劃、搜索片段、驗證片段、回答問題),為VideoMind定義了4個角色,并構(gòu)建了一個角色化的工作流,有效地解決了長視頻中的時序推理問題。

  • 規(guī)劃者(Planner)
  • 根據(jù)問題動態(tài)制定計劃,決定如何調(diào)用其他角色(如先定位,再驗證,最后回答問題);
  • 定位器(Grounder)
  • 根據(jù)給定的問題或查詢,精確定位與之相關的視頻片段;
  • 驗證器(Verifier)
  • 對定位得到的多個時間片段進行驗證,確保其準確性;
  • 回答者(Answerer)
  • 基于選定的視頻片段進行理解,生成最終答案。

打開網(wǎng)易新聞 查看精彩圖片

圖1:傳統(tǒng)純文字推理和VideoMind的角色化推理

為了高效整合以上角色,作者進一步提出了鏈式LoRA(Chain-of-LoRA)策略,在一個統(tǒng)一的Base模型(如Qwen2-VL)上同時加載多個輕量的LoRA Adapter,并在推理時根據(jù)需要進行動態(tài)切換,以實現(xiàn)不同角色間的轉(zhuǎn)換。該策略僅需要在Base模型上添加少量可學習參數(shù),即可實現(xiàn)多個角色/功能間的無縫切換,既獲得了比單一模型顯著更優(yōu)的性能,也避免了多模型并行帶來的計算開銷,從而在確保性能的同時大幅提高了計算效率。

打開網(wǎng)易新聞 查看精彩圖片

圖2: VideoMind的整體架構(gòu)和推理流程

VideoMind推理流程

如圖2所示,模型接收一個視頻和一個用戶提出的問題作為輸入,通過切換多個角色來推理出最終答案。其中,Planner首先對視頻和問題進行分析,執(zhí)行后續(xù)推理的計劃,其結(jié)果以JSON list的形式呈現(xiàn)。推理計劃主要可分為以下三種:

打開網(wǎng)易新聞 查看精彩圖片

圖3:VideoMind的三種推理模式

其中(i)主要針對長視頻問答任務(Grounded VideoQA),需要使用Grounder + Verifier + Answerer三個角色進行作業(yè);(ii)針對視頻時序定位任務(Video Temporal Grounding),使用Grounder + Verifier來進行相關片段的精準查找;(iii)針對短視頻問答,該場景下由于視頻較短,無需對其進行裁剪,故直接使用Answerer進行推理。

打開網(wǎng)易新聞 查看精彩圖片

圖4:Timestamp Decoder模塊

Grounder負責接收一個自然語言查詢,并在視頻中定位相關片段。針對這一復雜任務,研究團隊提出了Timestamp Decoder模塊,將離散的Token預測任務和連續(xù)的時間回歸任務解耦開來,并使LLM通過Special Token進行調(diào)用,實現(xiàn)了強大的Zero-shot時序定位性能。

打開網(wǎng)易新聞 查看精彩圖片

圖5:Verifier的驗證策略

為保證時間分辨率,Grounder往往工作在較低的空間分辨率下,因此獲得的時間片段可能會不準確。針對此問題,作者設計了Verifier角色來對每個片段進行放大驗證,并從多個候選片段中選取置信度最高的作為目標片段。試驗證明該策略可以進一步顯著提高Temporal Grounding任務的性能。

打開網(wǎng)易新聞 查看精彩圖片

表1:VideoMind的訓練數(shù)據(jù)集

為訓練VideoMind,作者針對不同角色收集/制作了多個數(shù)據(jù)集,共計包含接近50萬個樣本。不同角色使用不同數(shù)據(jù)集進行訓練,并在推理時合并加載,以確保每個角色的性能最大化。所有訓練數(shù)據(jù)(包括前期探索使用的更多數(shù)據(jù)集)全部公開可用。

實驗與評估

為了驗證VideoMind的有效性,作者在14個公開基準測試集上進行了廣泛的實驗,涵蓋了長視頻定位 + 問答(Grounded VideoQA)、視頻時序定位(Video Temporal Grounding)和普通視頻問答(General VideoQA)等任務。

打開網(wǎng)易新聞 查看精彩圖片

表2:用于VideoMind評測的基準測試集

(1)視頻定位 + 問答(Grounded VideoQA)

在CG-Bench、ReXTime、NExT-GQA等長視頻基準上,VideoMind在答案精確度和時序定位準確性方面表現(xiàn)出了領先優(yōu)勢。特別的,在平均視頻長度約為27分鐘的CG-Bench中,較小的VideoMind-2B模型在時序定位和問答任務上超越了GPT-4o、Gemini-1.5-Pro等最先進的模型

打開網(wǎng)易新聞 查看精彩圖片

表3:CG-Bench數(shù)據(jù)集的測試結(jié)果

打開網(wǎng)易新聞 查看精彩圖片

表4:NExT-GQA數(shù)據(jù)集的測試結(jié)果

(2)視頻時序定位(Video Temporal Grounding)

VideoMind的Grounder通過創(chuàng)新的Timestamp Decoder和Temporal Feature Pyramid設計,顯著提高了視頻時序定位的準確性。Verifier的設計進一步提升了高精度定位的性能。VideoMind在Charades-STA、ActivityNet-Captions、QVHighlights等基準上都取得了最佳性能。此外,VideoMind也是首個支持多片段grounding的多模態(tài)大模型,因此可以在QVHighlights數(shù)據(jù)集上跟現(xiàn)有模型公平對比。

打開網(wǎng)易新聞 查看精彩圖片

表5:Charades-STA數(shù)據(jù)集的測試結(jié)果

打開網(wǎng)易新聞 查看精彩圖片

表6:ActivityNet Captions數(shù)據(jù)集的測試結(jié)果

打開網(wǎng)易新聞 查看精彩圖片

表7:QVHighlights數(shù)據(jù)集的測試結(jié)果

(3)一般視頻問答(General VideoQA)

對于通用的視頻理解問題,VideoMind也表現(xiàn)出了強大的泛化能力。在Video-MME、MVBench、MLVU、LVBench、LongVideoBench等基準上,VideoMind得益于其Planner的設計,可以自適應地決定是否需要grounding,其性能超越了許多先進的視頻問答模型,顯示了其在不同視頻長度下的優(yōu)越表現(xiàn)。

打開網(wǎng)易新聞 查看精彩圖片

表8:Video-MME、MLVU和LVBench數(shù)據(jù)集的測試結(jié)果

打開網(wǎng)易新聞 查看精彩圖片

表9:LongVideoBench數(shù)據(jù)集的測試結(jié)果

以下例子展現(xiàn)了VideoMind在實際場景中的推理流程。給定一個視頻和一個問題,該模型可以拆解問題、指定計劃、搜索片段、驗證結(jié)果,并根據(jù)獲取的片段推理最終答案。該策略相比傳統(tǒng)的純文字推理(左下部分)更加符合人類行為,結(jié)果也更加可靠。

打開網(wǎng)易新聞 查看精彩圖片

圖6:VideoMind的推理流程可視化

總結(jié)

VideoMind的提出不僅在于視頻理解性能的突破,更在于提出了一個模塊化、可擴展、可解釋的多模態(tài)推理框架。該框架首次實現(xiàn)了類似人類行為的“指定計劃、搜索片段、驗證結(jié)果、回答問題”流程,真正讓AI能“像人類一樣理解視頻”,為未來的視頻理解和多模態(tài)智能系統(tǒng)領域奠定了基礎。

項目主頁:https://videomind.github.io/
論文鏈接:https://arxiv.org/abs/2503.13444
開源代碼:https://github.com/yeliudev/VideoMind
開源數(shù)據(jù):https://huggingface.co/datasets/yeliudev/VideoMind-Dataset
在線Demo:https://huggingface.co/spaces/yeliudev/VideoMind-2B