一、介绍
SadTalker模型是一个基于深度学习的开源模型,主要是用于根据图片和音频文件自动生成人物说话的动画视频。该模型通过接收一张图片和一段音频文件,能够自动生成包含人脸动作(如张嘴、眨眼、移动头部等)的说话动画视频。
二、部署过程
环境配置要求:
系统:Ubuntu20.4系统,
显卡:RTX 3060 12G,
CUDA: 11.3 ,
miniconda3
1.模型下载
下载SadTalker模型,输入下列指令:
git clone https://gitclone.com/github.com/OpenTalker/SadTalker.git
2.创建虚拟Python环境
首先使用命令进入SadTalker:
cd SadTalker
使用下列命令创建名称为s