DiffSynth 是一个新的 Diffusion 引擎,可以实现图片和视频的风格转换。

拉取源码
git clone https://github.com/Artiprocher/DiffSynth-Studio/
创建环境
conda env create -f environment.yml
conda activate DiffSynthStudio
下载模型
将Stable Diffusion模型、AnimateDiff模型、Lora模型、ControlNet模型、Annotators预处理模型放到models对应目录下
- 下载AnimateDiff模型
https://huggingface.co/guoyww/animatediff/
- 下载ControlNet模型
https://huggingface.co/lllyasviel/ControlNet-v1-1/
- 下载Annotators预处理模型
https://huggingface.co/lllyasviel/Annotators/
启动WebUI
python -m streamlit run Diffsynth_Studio.py

也可以通过代码的方式实现图片视频风格转换,参照DiffSynth-Studio\examples目录下的示例。
DiffSynth:图片和视频风格转换的深度学习工具与使用指南

本文介绍了DiffSynth,一个基于深度学习的扩散引擎,用于实现图片和视频的风格转换。提供了从GitHub克隆代码、创建conda环境、下载预训练模型到启动WebUI的详细步骤,以及通过代码示例进行转换的方法。
1834

被折叠的 条评论
为什么被折叠?



