【重磅开源】阿里视频生成模型万相2.1杀疯了!文生/图生视频全能,最低6G就能跑, ComfyUI可用!

阿里发布开源视频生成模型Wan-Video,支持文生图和图生图,最低6G显存即可运行,ComfyUI可用。该模型性能卓越,1.3B参数版本仅需8.19GB VRAM,可在消费级GPU上实现高效视频生成,为视频创作带来全新可能。
Wan-Video 模型介绍:包括 Wan-Video-1.3B-T2V 和 Wan-Video-14B-T2V 两个版本,分别支持文本到视频(T2V)和图像到视频(I2V)生成。14B 版本需要更高的 VRAM 配置。

img

Wan2.1 是一套全面开放的视频基础模型,旨在突破视频生成的界限。Wan2.1 具有以下几个关键特性:

  • SOTA 性能:Wan2.1 在多个基准测试中始终优于现有的开源模型和最先进的商业解决方案。
  • 支持消费级 GPU:T2V-1.3B 型号仅需 8.19 GB VRAM,可兼容几乎所有消费级 GPU。它可在约 4 分钟内用 RTX 4090 生成一段 5 秒的 480P 视频(未使用量化等优化技术),性能甚至可与一些闭源型号相媲美。
  • 多任务:Wan2.1 在文本转视频、图像转视频、视频编辑、文本转图像、视频转音频方面表现出色,推动了视频生成领域的发展。
  • 视觉文本生成:Wan2.1是第一个能够生成中英文文本的视频模型,具有强大的文本生成功能,可增强其实际应用。
  • 强大的视频 VAE:Wan-VAE 提供卓越的效率和性能,可对任意长度的 1080P 视频进行编码和解码,同时保留时间信息,使其成为视频和图像生成的理想基础。

相关链接资料获取

这份完整版的AIGC资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

介绍

Wan2.1-I2V-14B

I2V-14B 模型的表现超越了领先的闭源模型以及所有现有的开源模型,达到了 SOTA 性能。它能够根据输入的文本和图像生成展示复杂视觉场景和运动模式的视频,包括 480P 和 720P 分辨率的模型。

Wan2.1-T2V-14B

T2V-14B 模型在开源和闭源模型中创下了 SOTA 性能新高,展现出其能够生成具有大量运动动态的高质量视觉效果的能力。它还是唯一能够同时生成中英文文本的视频模型,并支持 480P 和 720P 分辨率的视频生成。

Wan2.1-T2V-1.3B

T2V-1.3B 模型支持在几乎所有消费级 GPU 上生成视频,仅需 8.19 GB BRAM 即可生成 5 秒的 480P 视频,在 RTX 4090 GPU 上输出时间仅为 4 分钟。通过预训练和蒸馏过程,它超越了更大的开源模型,甚至达到了与一些先进的闭源模型相当的性能。

Wan2.1 以主流的扩散变换器范式为基础,通过一系列创新显著提升了生成能力,包括我们新颖的时空变分自动编码器 (VAE)、可扩展的预训练策略、大规模数据构建和自动化评估指标。这些贡献共同提升了模型的性能和多功能性。

3D 变分自动编码器

我们提出了一种专为视频生成而设计的新型 3D 因果 VAE 架构。我们结合了多种策略来改善时空压缩、减少内存使用并确保时间因果关系。这些增强功能不仅使我们的 VAE 更高效、更可扩展,而且更适合与 DiT 等基于扩散的生成模型集成。

img

为了高效支持任意长视频的编码和解码,我们在 3D VAE 的因果卷积模块中实现了特征缓存机制。具体来说,视频序列帧数遵循 1 + T 输入格式,因此我们将视频分成 1 + T/4 个块,与潜在特征的数量一致。在处理输入视频序列时,该模型采用逐块策略,其中每个编码和解码操作仅处理与单个潜在表示相对应的视频块。基于时间压缩比,每个处理块中的帧数最多限制为 4,从而有效防止 GPU 内存溢出。 实验结果表明,我们的视频 VAE 在两个指标上都表现出了极具竞争力的性能,展现了卓越视频质量和高处理效率的双重优势。值得注意的是,在相同的硬件环境(即单个 A800 GPU)下,我们的 VAE 的重建速度比现有的 SOTA 方法(即 HunYuanVideo)快 2.5 倍。由于我们的 VAE 模型的小尺寸设计和特征缓存机制,这种速度优势将在更高分辨率下得到进一步体现。

img

视频传播 DiT

Wan2.1 采用主流 Diffusion Transformers 范式中的 Flow Matching 框架进行设计。在我们的模型架构中,我们利用 T5 Encoder 对输入的多语言文本进行编码,并在每个 Transformer 块内加入交叉注意力机制,将文本嵌入到模型结构中。此外,我们还使用 Linear 层和 SiLU 层来处理输入的时间嵌入,并分别预测六个调制参数。此 MLP 在所有 Transformer 块之间共享,每个块都学习一组不同的偏差。我们的实验结果表明,在相同的参数规模下,这种方法可以显著提高性能。因此,我们在 1.3B 和 14B 模型中都实现了此架构。

img

模型扩展和训练效率

在训练过程中,我们使用 FSDP 进行模型分片,当与上下文并行 (CP) 结合时,FSDP 组和 CP 组相交,而不是形成模型并行 (MP) 和 CP/DP 的嵌套组合。在 FSDP 中,DP 大小等于 FSDP 大小除以 CP 大小。在满足内存和单批次延迟要求后,我们使用 DP 进行扩展。

img在Inference过程中,为了降低扩展到多GPU时生成单个视频的延迟,需要选择Context Parallel进行分布式加速。另外当模型很大时,需要进行模型分片。

  • 模型分片策略:对于 14B 这样的大型模型,必须考虑模型分片。考虑到序列长度通常很长,FSDP 与 TP 相比通信开销较小,并且允许计算重叠。因此,我们选择 FSDP 方法进行模型分片,与我们的训练方法一致(注意:仅分片权重而不实现数据并行)。
  • 上下文并行策略:采用与训练时相同的 2D 上下文并行方法:对外层(机器间)采用 RingAttention,对内层(机器内)采用 Ulysses。 在万14B大模型上,采用2D Context Parallel和FSDP并行策略,DiT实现了接近线性的加速比,如下图所示。

img下表中我们测试了不同Wan2.1模型在不同GPU上的计算效率,结果以总时间(s)/峰值GPU内存(GB)的格式呈现。

img

图像转视频

图像到视频 (I2V) 任务旨在根据输入提示将给定图像动画化为视频,从而增强视频生成的可控性。我们引入额外的条件图像作为第一帧来控制视频合成。具体而言,条件图像沿时间轴与零填充帧连接,形成指导帧。然后,这些指导帧由 3D 变分自动编码器 (VAE) 压缩为条件潜在表示。此外,我们引入了一个二元掩码,其中 1 表示保留的帧,0 表示需要生成的帧。掩码的空间大小与条件潜在表示匹配,但掩码与目标视频共享相同的时间长度。然后,将此掩码重新排列为与 VAE 的时间步幅相对应的特定形状。噪声潜在表示、条件潜在表示和重新排列的掩码沿通道轴连接并传递通过提出的 DiT 模型。由于 I2V DiT 模型的输入通道比文本转视频 (T2V) 模型多,因此使用了额外的投影层,并用零值初始化。此外,我们使用 CLIP 图像编码器从条件图像中提取特征表示。这些提取的特征由三层多层感知器 (MLP) 投影,用作全局上下文。然后通过解耦交叉注意力将此全局上下文注入 DiT 模型。

img

数据

我们整理并去重了一个包含大量图像和视频数据的候选数据集。在数据整理过程中,我们设计了一个四步数据清理流程,重点关注基本维度、视觉质量和运动质量。通过强大的数据处理流程,我们可以轻松获得高质量、多样化、大规模的图像和视频训练集。

img

与 SOTA 的比较

为了评估 Wan2.1 的性能,我们将 Wan2.1 与领先的开源和闭源模型进行了比较。我们使用精心设计的 1,035 个内部提示集进行测试,这些提示集涵盖了 14 个主要维度和 26 个子维度,涵盖了运动质量、视觉质量、风格和多目标等方面。最终,我们根据每个维度的重要性通过加权平均计算总分。详细结果如下表所示。从这些结果可以看出,我们的模型在与闭源和开源模型的全面比较中取得了最佳性能。

img

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

这份完整版的AIGC全套学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

### 阿里云通义万相2.1 版本特性 阿里云2025年225日深夜宣布开源视频生成模型通义万相2.1,此版本提供了两个主要参数规模的选择:文生视频-1.3B和文生视频-14B。这两个版本旨在满足不同的应用场景和技术需求[^1]。 #### 文生视频-1.3B 和 文生视频-14B 的特点 - **文生视频-1.3B**:适合资源有限但希望尝试高质量视频生成的个人开发者或小型团队。 - **文生视频-14B**:针对更复杂、更高精度的任务设计,适用于专业级应用开发以及研究机构。 ### 使用说明 为了方便全球范围内的开发者获取并利用这些先进的技术成果,官方已开放多个平台供下载: - GitHub - Hugging Face - 魔搭社区 用户可以根据自己的偏好选择合适的渠道来访问源码及关文档资料。 对于想要深入了解如何操作该工具的人来说,建议前往[通义万相官方网站](https://wanxiang.aliyun.com/)进行注册申请账号,并查阅详细的API接口指南和其他支持材料[^2]。 ### 更新内容 此次发布的通义万相2.1不仅实现了完全开源共享,在性能优化方面也取得了显著进步,具体表现在以下几个方面: - 提升了像到视频转换的质量; - 增强了自然语言处理能力,使得描述文字能够更加精准地映射成视觉效果; - 改进了多模态融合机制,从而更好地理解输入数据之间的关联性; 此外,还修复了一些之前存在的Bug,并增加了新的功能模块以扩展系统的适用性和灵活性。 ```python import torch from transformers import AutoModelForVideoGeneration, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("path_to_model") # 替换为实际路径 model = AutoModelForVideoGeneration.from_pretrained("path_to_model") text_input = tokenizer("A beautiful sunset over the ocean", return_tensors="pt") video_output = model.generate(**text_input) print(video_output.shape) # 输出视频张量大小 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值