【大模型系列篇】AI半身数字人开箱体验——开源项目EchoMimicV2

EchoMimicV2是阿里蚂蚁集团推出的半身人体AI数字人项目,基于参考图片、音频剪辑和手部姿势序列生成高质量动画视频,确保音频内容与半身动作的一致性。EchoMimicV2在前代EchoMimicV1生成逼真人头动画的基础上,效果得到进一步提升,现在能生成完整的数字人半身动画,实现从中英文语音到动作的无缝转换。

该项目采用音频-姿势动态协调策略,包括姿势采样和音频扩散,增强细节表现力并减少条件冗余。并使用头部局部注意力技术整合头部数据,设计特定阶段去噪损失优化动画质量。

主要功能

  • 音频驱动的动画生成:用音频剪辑驱动人物的面部表情和身体动作,实现音频与动画的同步。
  • 半身动画制作:从仅生成头部动画扩展到生成包括上半身的动画。
  • 简化的控制条件:减少动画生成过程中所需的复杂条件,让动画制作更为简便。
  • 手势和表情同步:基于手部姿势序列与音频的结合,生成自然且同步的手势和面部表情。
  • 多语言支持:支持中文和英文驱动,根据语言内容生成相应的动画。

技术原理

  • 音频-姿势动态协调(APDH):
    • 姿势采样(Pose Sampling):逐步减少姿势条件的依赖,让音频条件在动画中扮演更重要的角色。
    • 音频扩散(Audio Diffusion):将音频条件的影响从嘴唇扩散到整个面部,再到全身,增强音频与动画的同步性。
  • 头部局部注意力(Head Partial Attention, HPA):在训练中整合头部数据,增强面部表情的细节,无需额外的插件或模块。
  • 特定阶段去噪损失(Phase-specific Denoising Loss, PhD Loss):将去噪过程分为三个阶段:姿势主导、细节主导和质量主导,每个阶段都有特定的优化目标。
  • Latent Diffusion Model(LDM):用变分自编码器(VAE)将图像映射到潜在空间,在训练过程中逐步添加噪声,估计并去除每个时间步的噪声。
  • ReferenceNet-based Backbone:用ReferenceNet从参考图像中提取特征,将其注入到去噪U-Net中,保持生成图像与参考图像之间的外观一致性。

本次我们直接采用上篇《LLaMA-Factory大模型微调实践 - 从零开始》中的Docker容器进行开源项目EchoMimicV2的开箱体验。

开箱体验
环境要求
  • 测试系统环境:Centos 7.2/Ubuntu 22.04, Cuda >= 11.7
  • 测试GPU:A100(80G) / RTX4090D (24G) / V100(16G)
  • 测试Python版本:3.8 / 3.10 / 3.11
下载代码
git clone https://github.com/antgroup/echomimic_v2
cd echomimic_v2
创建conda环境
conda create -n echomimic python=3.10
conda activate echomimic
自动化安装部署
sh linux_setup.sh

为了加速安装,我们将脚本中关于从huggingface下载的项目地址全部替换为modelscope。

git clone https://www.modelscope.cn/BadToBest/EchoMimicV2.git
git clone https://www.modelscope.cn/zhuzhukeji/sd-vae-ft-mse.git
git clone https://www.modelscope.cn/gqy2468/sd-image-variations-diffusers.git
启动demo

为了使容器中地址能被访问,我们修改 Gradio app.py 中的 launch,添加 server_name='0.0.0.0' 。

python app.py

开箱体验

访问 0.0.0.0:7860

我们从一首AI创作的歌曲中截取了一段28秒的音频,并调整了视频长度到720,大概花了半个小时,生成了一段14秒的数字人动画视频,因为使用了预设人物,效果还不错。如果需要自定义图片可以将主页提供的图作为参考图,使用ControlNet或者图生图生成类似的人像。https://github.com/antgroup/echomimic_v2/discussions/40

### 安装和配置 EchoMimicV2 on Windows 11 #### 准备工作 为了确保顺利安装并使用EchoMimicV2,在开始之前确认计算机配备有NVIDIA显卡,因为该软件主要依赖于CUDA进行高效处理。对于Windows 11操作系统而言,建议先准备好足够的磁盘空间来容纳大约30GB以上的数据量,这是因为EchoMimic的一体包本身较大,包含了众多预训练好的AI模型文件。 #### 下载与安装 Miniconda 考虑到后续可能会涉及到Python环境及其相关库的管理需求,推荐采用Miniconda来进行环境搭建。访问指定链接下载适用于Windows系统的最新版Miniconda安装程序[^2],按照提示完成安装过程,并在过程中勾选将Anaconda加入PATH环境变量选项以便日后命令行调用方便。 #### 获取 EchoMimic 一体包 前往提供的网盘地址获取名为`echomimic一体包230811`的压缩文件[^3]。下载完成后将其解压至目标位置;此操作后应能看到一个可以直接双击执行的应用快捷方式或是批处理脚本(.bat),用于启动应用程序和服务。 #### 启动服务 进入解压后的目录找到启动文件(通常是一个.bat结尾的批处理文件),右键点击以管理员身份运行它。这一步骤将会初始化必要的后台进程并加载所需的资源到内存当中准备就绪等待用户交互输入指令或上传待处理素材。 #### 使用说明 一旦成功启动之后,可以通过图形界面或者命令行参数的形式向EchoMimic传递音频文件以及对应的图像资料,从而实现让静态照片开口讲话的效果。由于其内部实现了先进的算法优化,能够有效减少因音画不同步所引起的视觉突兀感,提供更为逼真的人脸动画体验[^4]。 ```bash # 假设启动文件名叫做 start_echomimic.bat start_echomimic.bat ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值