复旦联合微软提出MagicMotion!Motion可控图生视频新框架!

复旦微软提出MagicMotion可控图生视频框架

🌐 社群导航

🔗 点击加入➡️【AIGC/LLM/MLLM/3D/自动驾驶】 技术交流群

🔗 点击加入➡️【2-3月CCF投稿】交流群

数源AI 最新论文解读系列

论文名:MagicMotion: Controllable Video Generation with Dense-to-Sparse Trajectory Guidance

论文链接:https://arxiv.org/pdf/2503.16421

开源代码:https://quanhaol.github.io/magicmotion-site/

导读

虽然基于DiT的模型在生成高质量和更长视频方面表现出色,但许多文本到视频方法缺乏对物体运动和相机运动等属性的精确控制。细粒度的轨迹可控视频生成技术应运而生,这对于在现实场景中生成可控视频尤为关键。

简介

近年来,视频生成技术取得了显著进展,在视觉质量和时间连贯性方面有了显著提升。在此基础上,轨迹可控的视频生成技术应运而生,它可以通过明确定义的空间路径实现对物体运动的精确控制。然而,现有方法在处理复杂物体运动和多物体运动控制时存在困难,导致轨迹跟踪不精确、物体一致性差以及视觉质量受损。此外,这些方法仅支持单一格式的轨迹控制,限制了它们在不同场景中的适用性。另外,目前还没有专门针对轨迹可控视频生成的公开可用数据集或基准,这阻碍了模型的稳健训练和系统评估。为了解决这些挑战,我们提出了魔法运动(MagicMotion),这是一种新颖的图像到视频生成框架,它通过从密集到稀疏的三个级别的条件(掩码、边界框和稀疏边界框)实现轨迹控制。给定输入图像和轨迹,魔法运动可以使物体沿着定义的轨迹无缝动画化,同时保持物体的一致性和视觉质量。此外,我们还推出了魔法数据(MagicData),这是一个大规模的轨迹控制视频数据集,以及一个用于标注和过滤的自动化流程。我们还引入了魔法基准(MagicBench),这是一个全面的基准,用于评估不同数量物体的视频质量和轨迹控制精度。大量实验表明,魔法运动在各种指标上都优于以往的方法。

方法与模型

1. 概述

我们的工作主要聚焦于轨迹可控的视频生成。给定一张输入图像  和若干轨迹图 ,该模型能够生成一个符合所提供轨迹的视频 ,其中 T 表示生成视频的长度。在接下来的章节中,我们首先会在 3.2 节详细解释我们的模型架构。接着,我们会在 3.3 节概述我们的渐进式训练过程。在 3.4 节,我们会引入潜在分割损失(Latent Segmentation Loss),并展示它如何提升模型在细粒度物体形状方面的能力。然后,我们会在 3.5 节描述我们的数据集整理和过滤流程。最后,我们会在 3.6 节深入介绍 MagicBench。

2. 模

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值