Wan-Move 论文核心总结与关键部分翻译
一、主要内容总结
1. 研究背景与问题
现有运动可控视频生成方法存在两大核心缺陷:一是运动引导表示要么粒度粗糙(如边界框、分割掩码无法控制局部运动),要么需额外模型(如光流估计引入累积误差);二是融合方式依赖辅助运动编码器或修改模型架构,导致信号损耗且难以大规模微调。同时,缺乏高质量、长时长、标注完善的专用基准测试集。
2. 核心方案:Wan-Move 框架
- 运动表示:采用密集点轨迹(point trajectories),兼顾细粒度控制与无额外模型依赖的优势。
- 核心创新:将像素空间的点轨迹映射到 latent 空间,通过复制第一帧在轨迹初始位置的特征并沿 latent 轨迹传播,直接更新条件特征,无需新增辅助模块或修改基础模型架构。
- 训练与推理:基于现有图像到视频(I2V)模型(如 Wan-I2V-14B)微调,保留原模型能力;推理时结合文本提示、首帧图像和点轨迹,通过分类器引导增强生成对齐性。
3. 配套基准测试集:MoveBench
- 包含 1018 个 5 秒、480×832 分辨率视频,覆盖 54 类内容,提供点轨迹和分割掩码双重标注。
- 采用“人类+SAM 模型”混合标注流程

订阅专栏 解锁全文
21

被折叠的 条评论
为什么被折叠?



