「世界理解」维度看AI视频生成:Veo3和Sora2水平如何?新基准来了

部署运行你感兴趣的模型镜像
VideoVerse团队 投稿
量子位 | 公众号 QbitAI

近年来,Text-to-Video(T2V)模型取得显著进展——

从静态帧质量到连贯的视频叙事,模型能力大幅提升,尤其是最近Sora2的爆火,让人们开始想象,T2V Model是否已经是一个真正的“世界模型”?。

然而,传统基准主要考察图像质量与语义一致性,并不能系统衡量模型对事件因果、物理规律与常识的理解,而这些正是“世界模型”的核心能力。

为此,中山大学、香港理工大学、清华大学与OPPO Research Institute合作,在港理工Chair Professor张磊教授的指导下提出了一种新的评测框架——VideoVerse

设计目标与核心内容

VideoVerse致力于评估T2V模型在事件级时间因果与世界知识(物理、材料、常识)上的表现。团队从两大视角定义了十个评测维度

1、动态(Dynamic):Event Following(事件顺序与因果)、Mechanics(力学)、Interaction(交互)、Material Properties(材料特性)、Camera Control(镜头控制)。

2、静态(Static):Natural Constraints(自然/物理约束)、Common Sense(常识)、Attribution Correctness(属性正确性)、2D Layout(二维布局)、3D Depth(三维深度)。

每条prompt对应若干二元(Yes/No)评测问题;Event Following采用事件序列匹配(LCS)度量序列一致性。

最终通过QA + LCS的混合评分,得到模型在各维度上的综合表现。

Prompt构建流程

为确保prompt的真实性、多样性与可评测性,团队采用多阶段构建流程:

域内原始语料采样

团队从三大域获取源数据:Daily Life(如 ActivityNet Caption)、Scientific Experiment(高中/教科书级实验步骤)、Science Fiction(VidProM 等社区收集)。

目的是覆盖真实世界场景、受控科学实验与超现实/想象场景,以测试模型的现实/推理/泛化能力。

事件与因果结构抽取

团队使用GPT-4o等强LLM自动抽取视频或文本中的事件序列与潜在因果链,把自然语言描述转换为事件级结构(event1 ⇒ event2 ⇒ event3…)。

这么做是为了保证prompt天然具备事件因果的性质,为prompt中的“事件跟随”评测打下基础。

人工标注与评测维度

独立人类注释者对自动抽取的raw-prompt进行语义增补(例如加入材料、镜头动作、隐藏语义)、并为每条prompt选择适用的评测维度。

注释者均具备本科及以上学历,定期交叉校验以减少偏差。

这样,可以将自动抽取与人工知识结合,保障prompt的多维挑战性与标注质量。

维度二元检测问题生成

基于每条prompt的选定维度,自动/人工生成与之对应的二元QA(例如:“视频中是否出现蓝色海绵?”、“事件顺序是否为A ⇒ B ⇒ C?”)

这些问题用于后续的VLM评测,同时屏蔽原始的prompt,降低评估时的文本幻觉风险。

QA+LCS的混合评估

评估方面,团队采用QA+LCS的混合评估,具体分为三个步骤

1、事件跟随(Event Following):用VLM提取生成视频的事件序列,再用最长公共子序列(LCS)与地面真值比对,评分反映事件顺序与因果的一致性。

2、维度特定问题:每个维度下的二元问题独立询问VLM,正确数累加为维度得分。

3、总体得分:LCS得分+各维度二元问题答对数之和。该设计既关注序列逻辑也关注属性/物理细节。

隐含语义

不过,能生成一段合理的画面,不代表模型理解了背后的隐含语义。

为此,团队在VideoVerse中引入了隐含语义(hidden semantics)

目前,大多数现有T2V评测只关注显式语义(explicit semantics)——即prompt中直接描述的事件。

然而,真正的“世界理解”不仅在于生成“可见的动作”,还在于能否遵循那些未明说但合理存在的语义前提

例如这样一段prompt:

A man drops an egg on the floor.

这段话的显式语义很清晰:男人掉下鸡蛋。

而隐含语义则是:鸡蛋应破碎、液体应流动、地面应湿润。

如果一个模型能正确生成破碎和液体流动,这说明它真正理解了物理因果,而非仅仅模仿了文字表象。

因此,团队在VideoVerse中系统引入了隐含语义,用以检测模型是否能生成这些“隐含后果”。

主要实验与分析

团队在VideoVerse上评测了主流开源与闭源模型(如 Wan 系列、HunyuanVideo、SkyReels、Veo-3 、Sora2等)。有两点关键发现:

1、开源模型在基础维度(属性、2D/3D布局等)与闭源模型接近,但在世界模型级别(自然约束、常识、事件因果)差距明显。

2、即便是最强闭源模型(Sora2),在“隐藏语义跟随”与某些物理/材料推断上仍有显著缺陷。


一个例子,不同视频模型对于“唐三藏骑的马的颜色”的理解迥乎不同。

研究发现,Wan 2.1Hunyuan能成功生成相应的描述性内容(如“马的皮毛闪闪发光”),但在事件连贯性(Event Following)和常识理解(Common Sense)方面表现不佳。

相比之下,Veo-3在各个维度上均表现出色。

此外,其他模型还会犯一些一些更加显著的反常识错误。

例如Hailuo Video能生成视觉上颇具吸引力的剃须动作,但胡须始终没有刮掉。

再如,Hunyuan Video能正确生成球形冰块、倒水动作、一块干冰,以及诸如“在右侧”等二维空间布局关系。

但它对自然约束的理解依然不佳——干冰在室温下并未出现升华现象。

面向“世界理解”的视频生成未来

综上,VideoVerse提供了一个完善的面向世界模型的评测框架,旨在推动社区从“生成逼真画面”向“理解并模拟世界”转变。

目前,团队已开源数据、评测代码和leaderboard,他们期待更多研究者能基于VideoVerse提出更强的世界模型能力改进方法。

项目主页:
https://www.naptmn.cn/Homepage_of_VideoVerse/
ArXiv:
https://arxiv.org/abs/2510.08398

您可能感兴趣的与本文相关的镜像

Dify

Dify

AI应用
Agent编排

Dify 是一款开源的大语言模型(LLM)应用开发平台,它结合了 后端即服务(Backend as a Service) 和LLMOps 的理念,让开发者能快速、高效地构建和部署生产级的生成式AI应用。 它提供了包含模型兼容支持、Prompt 编排界面、RAG 引擎、Agent 框架、工作流编排等核心技术栈,并且提供了易用的界面和API,让技术和非技术人员都能参与到AI应用的开发过程中

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值