综艺后期狂喜:编辑一帧,整个视频跟着变!比LNA渲染快5倍,Adobe联合出品

部署运行你感兴趣的模型镜像
尚恩 发自 凹非寺
量子位 | 公众号 QbitAI

前不久跑男为了让“kunkun”原地消失,后期只能一帧一帧的抠图。

现在,只要编辑一帧,整个视频就跟着变!

5498294cf314ab6c6db76feab562a99f.gif

7b58c9220f1b29b8b7ba1fc2f8406834.gif

就是点点kunkun,整集就自动消失的那种(手动狗头)。

a6ed5406ead017d857181d7183ae3e55.png

Adobe Research和英属哥伦比亚大学的研究人员发现,使用INVE(交互式神经视频编辑),只需在单帧上“画笔涂鸦”,就能自动应用改动到整个视频中。

315f0fdcd7126aa869011e9286d9e154.gif

不仅可以编辑视频中的对象并保留空间和光影关系,甚至可以编辑移动对象的纹理色彩

318d129701ee522187e6c50bfac97b3b.gif

网友惊呼:太牛了!

abdd8174eb8e3c5ac1217f33dabfc218.png

交互式神经视频编辑

INVE(Interactive Neural Video Editing)是一种实时视频编辑解决方案。

研究团队受到分层神经图集(LNA)的研究启发。测试发现,通过使用INVE,可以将稀疏帧编辑一致地传播到整个视频剪辑,辅助视频编辑过程。

dec4cbce970f91478f69720a7f776550.png

视频中的场景通常由非静态背景和一个或多个前景物体组成,运动轨迹也会不同。

早期的2D方法需要独立编辑每一帧,并使用帧间跟踪来协调整个视频。

bd5768e7ae5e47aac4e2191d3b5aca39.png

假如我们要把这个小狗头像放在车门上,按照传统方式,视频中车是往前移动的,为避免不出现溢出效果,就需要一帧一帧训练和测试反复编辑。

这种方式费时费力不说,还容易导致明显的视觉伪影

而最近发展起来的分层神经图集(LNA)方法,可以通过一组分层神经网络2D图集对单个训练和测试,达到编辑整个视频的效果。

虽避免了逐帧编辑,但也有一些问题,比如处理速度较慢、对某些编辑用例支持不足。

cd0527fc101021aea980cfcf61bab1ff.gif

因此,研究团队基于LNA方法,通过学习图像图集和图像之间的双向函数映射,并引入矢量化编辑,使得在图集和图像中一致编辑成为可能。

同时,采用多分辨率哈希编码来改善模型的收敛速度。

如何实现

研究团队基于光流提取算法RAFT,在包含70帧且分辨率为768×432的视频上训练和测试模型。

首先,团队在每个训练批次中随机采样了10,000个视频像素,然后设定了一个模型参数值。

通过将GPU优化的Fully Fused MLP架构引入,仅迭代大约12,000个次数就完成训练,相比于LNA的300,000个迭代次数要少得多。

44eb671ff02fcad659c7bc645d47a960.png

测试显示该方法在单个NVIDIA RTX 4090 GPU上的渲染速度为24.81 FPS,对比LNA的渲染速度5.34 FPS,渲染速度快了近5倍。

经过相同数量的迭代训练,团队模型的重建、流场损失都比LNA更快地收敛。

此外,为实现点跟踪,团队选择逆映射的方法,允许添加跟踪单个/少数点的刚性纹理。

668dae4a5ec78dadc33720a279c6dc88.png

团队提出“矢量化素描技术”,将多边形链直接映射到图集中,更精确地控制线条,从而减少计算成本并避免有视觉伪影。

再通过分层编辑,允许在图集之上叠加多个可编辑图层,使每个图层都可独立访问和编辑。

分层编辑支持多种类型的编辑,包括画笔涂鸦、局部调整、纹理编辑。

比如画笔涂鸦,就可以直接使用画笔工具草图涂鸦。

ea24719cae749fa64a0d6eab82cbd395.gif

比如纹理编辑,可以导入外部图形,跟踪和变形的运动对象。

02e41e51c82b7d658a0d3b6b503e22d6.gif

研究团队

作者团队由来自Adobe Research、英属哥伦比亚大学、AI Vector研究所和CIFAR AI组成。

第一作者是Jiahui Huang,目前是Adobe Research的研究工程师,硕士毕业于英属哥伦比亚大学。

75f0265a51e04f7f54963ffa2df00e9d.png

其他作者包括Kwang Moo Yi、Oliver Wang和Joon Young Lee,整个团队研究方向主要也是在计算机视觉、机器学习和视频编辑领域。

论文地址已贴,感兴趣的可以去看看。

论文传送门 :
https://arxiv.org‍/abs/2307.07663

参考链接:
[1]https://twitter.com/_akhaliq/status/1681162394393886720/
[2]https://gabriel-huang.github.io/inve/

「AIGC+垂直领域社群」

招募中!

欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!

请备注您想加入的垂直领域「教育」或「广告营销」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。

73cef8910a60654148843fb85641dc9d.png

点这里👇关注我,记得标星哦~

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值