用AnimateDiff Prompt Travel video-to-video搭配ComfyUI制作AI视频,效果丝滑
制作Stable Diffusion AI动画
Ai跳舞教学案例视频
1. AnimateDiff的技术原理
AnimateDiff可以搭配扩散模型算法(Stable Diffusion)来生成高质量的动态视频,其中动态模型(Motion Models)用来实时跟踪人物的动作以及画面的改变。
2. 环境搭建
这里我们使用ComfyUI来搭配AnimateDiff做视频转视频的工作流。
我预设ComfyUI的环境已经搭建好了,这里就只介绍如何安装AnimateDiff插件。
3. ComfyUI AnimateDiff视频转视频工作流
-
找到一个真人跳舞视频
-
提取视频帧,并用ControlNet Openpose提取人物动作信息
-
根据视频帧里面的动作信息,使用SD重新绘制每一帧视频
-
组合出完整视频
3.1 读取ComfyUI工作流
直接把下面这张图拖入ComfyUI界面,它会自动载入工作流,或者下载这个工作流的JSON文件,在ComfyUI里面载入文件信息。
3.2 安装缺失的node组件
第一次载入这个工作流之后,ComfyUI可能会提示有node组件未被发现,我们需要通过ComfyUI