Stable Diffusion ControlNet OpenPose | 以后出图姿势自由了!

部署运行你感兴趣的模型镜像

前面我们学习了如何使用 ControlNet 的姿势约束,通过姿势约束控制出图的人物姿势和原图一致。

Stable Diffusion ControlNet 姿势约束终篇,解锁任意手部形状,实现手部自由
图片

但有的时候我们不仅仅是需要想要和原图姿势一致,还需要调整人物的姿势,想要实现这种功能按照之前学习的内容就只能通过不断的调整提示词来控制。

今天要学习的 ControlNet OpenPose Editor 就可以很好的解决这个问题,从而实现姿势自由了!

一 OpenPose Editor

我们可以将 OpenPose 理解成是对 ControlNet 姿势约束的一大增强。前面我们学习了 DWOpenPose,通过 DWOpenPose 可以更好的提取到图片手部的细节。但终究还是直接提取,不能很好的自己编辑姿势。

而 OpenPose 则可以很好的支持通过导入图片识别姿势的同时,也能够直接编辑骨骼图,通过对骨骼图的编辑,可以实现任意姿势的图片。

要注意的是不管是 DWOpenPose 还是 OpenPoseEditor ,都只是在提取或者说是制作姿势特征图。而对特征图的识别和渲染方式没有改变,都是通过 control_v11p_sd15_openpose 实现。

安装安装和其他插件的安装一直,将安装连接 https://ghproxy.com/https://github.com/fkunn1326/openpose-editor.git 直接贴上去,通过网址安装。(安装完成后记得重启)

图片

安装完成重启后就可以在 web ui 上看到 OpenPose编辑器 的菜单

图片

二 功能介绍

骨骼图

图片

其中对应序号的人体位置:

  • 1:眼睛
  • 2:肩关节
  • 3:肘关节
  • 4:腕关节
  • 5:髋关节
  • 6:膝关节
  • 7:踝关节 可以直接通过鼠标来控制对应的人体位置。

页面功能

图片

其中:

  • 宽度&高度:可以调整右侧画面的长宽比,可以根据成图时画面的尺寸比例进行设置
  • 添加:在右侧画面中新增一个骨架
  • 清空画面:点击后会一键清空右侧所有内容
  • 从JSON文件加载:从电脑中选择JSON文件进行加载
  • Detect from Image:可以导入一张图片,SD会自动读取人物骨骼姿态,读取成功后可以进行二次编辑和调整
  • Add Background Image:可以导入一张图片作为背景,再根据背景图片调整骨架
  • Load Preset:加载预设
  • Save Preset:保存预设(点击后会把右侧的骨架信息作为预设进行保存)
  • 储存为JSON文件:点击按钮后,会把上方骨架信息保存为JSON文件,后续可直接导入文件
  • 保存为PNG图片:保存图片到本地电脑中
  • 文生图:把骨架信息导入到文生图的ControlNet中
  • 图生图:把骨架信息导入到图生图的ControlNet中

三 使用

我们通过一个例子快速学习 OpenPoseEditor,先上模特图。图片放入到编辑器中,OpenPoseEditor 可以自动提取骨骼图

图片

我们可以随意的调整下骨骼图,紧接着发送到 文生图图片

在文生图的 ControlNet 中可以看到 OpenPose 中有发送过来的特征图(切记不要选择预处理器)
在这里插入图片描述

随便写点提示词,见证奇迹的时候到了!

正向提示词:3man,(masterpiece:1,2),best quality,best detail,
male focus,suspenders,grey pants,3boys,play basketball,

图片图片

先不看手部,对于整体姿势的控制还是很到位的。而手部的控制,同样可以配套的手部骨骼图,这块在后续再细聊!

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

对于0基础小白入门:

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!

需要的可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

1.stable diffusion安装包 (全套教程文末领取哈)

随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。

最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本

在这里插入图片描述

2.stable diffusion视频合集

我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。

在这里插入图片描述

3.stable diffusion模型下载

stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。

在这里插入图片描述

4.stable diffusion提示词

提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。

在这里插入图片描述

5.AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述
这份完整版的学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

<think>嗯,用户现在问的是如何在Stable Diffusion中安装和配置ControlNet OpenPose插件。之前已经详细解释了OpenPose的功能,现在需要具体指导操作步骤。 用户提供的三个引用中,[1]和[2]特别有用。[1]是水滴写的详细教程,包含大量例;[2]是Spike的配置指南,给了模型下载地址。不过[3]的内容比较泛泛,和安装配置关系不大。 准备这样组织回答:先说明安装前的环境要求,然后分步骤讲解。重点包括: - 安装插件的两种方式(URL安装和手动安装) - 模型文件的具体存放路径 - OpenPose预处理器选择技巧 - 启用ControlNet的注意事项 特别要注意提醒用户容易错的点,比如: 模型文件必须放在extensions/sd-webui-controlnet/models目录下 预处理器和模型要配对使用(如openpose_full配dw_openpose模型) 需要勾选"启用"和"完美像素模式" 用户可能是刚接触Stable Diffusion的新手,所以每个步骤都要拆解得足够细。比如下载模型时要强调必须下载带"openpose"字样的文件,并说明常见的文件命名规律。 最后考虑补充两个实用技巧:遇到检测失败时的解决方案,以及使用OpenPose编辑器手动修正骨架的方法。这样即使用户在后续使用中遇到问题也能自主解决。</think>以下是Stable DiffusionControlNet OpenPose插件的完整安装与配置流程,结合官方文档和实践经验整理: --- ### 一、安装前准备 1. **基础环境要求** - 已安装Stable Diffusion WebUI(如Automatic1111) - 显存 ≥ 4GB(推荐8GB以上) - Python ≥ 3.10(WebUI自带) 2. **下载必备文件** | 文件类型 | 下载地址 | 存放路径 | |---|---|---| | OpenPose模型 | [HuggingFace链接](https://huggingface.co/lllyasviel/ControlNet/tree/main/models) | `stable-diffusion-webui/extensions/sd-webui-controlnet/models` | | 预处理器文件 | [预处理器合集](https://huggingface.co/lllyasviel/ControlNet/tree/main/annotator/ckpts) | `stable-diffusion-webui/extensions/sd-webui-controlnet/annotator/downloads` | > ⚠️ 关键模型文件: > - `control_v11p_sd15_openpose.pth`(基础姿势) > - `control_v11p_sd15_openpose_fp16.safetensors`(轻量版)[^1][^2] --- ### 二、安装步骤 #### 方法1:WebUI扩展安装(推荐) 1. 打开Stable Diffusion WebUI → `Extensions`标签页 2. 选择`Install from URL`,输入ControlNet仓库地址: ```https://github.com/Mikubill/sd-webui-controlnet.git``` 3. 点击`Install`,重启WebUI[^1] #### 方法2:手动安装 ```bash # 进入WebUI扩展目录 cd stable-diffusion-webui/extensions # 克隆仓库 git clone https://github.com/Mikubill/sd-webui-controlnet.git # 重启WebUI ``` --- ### 三、配置流程 1. **启用ControlNet** - 生成像页面向下滑动 → 展开`ControlNet`折叠面板 - 勾选`Enable`(启用)和`Perfect Pixel`(完美像素模式)[^1] 2. **加载OpenPose模型** ```mermaid graph LR A[上传参考片] --> B{选择预处理器} B --> C[openpose] --> D[自动生成骨架] B --> E[openpose_hand] --> D B --> F[openpose_full] --> D D --> G[选择对应模型] G --> H[生成像] ``` 3. **参数设置建议** | 参数 | 推荐值 | 作用 | |---|---|---| | Control Weight | 0.7-1.2 | 控制强度(过高易僵化) | | Starting Step | 0.1 | 控制介入时机 | | Preprocessor Resolution | 512 | 与输尺寸一致 | --- ### 四、验证安装 1. 上传人物照片,选择`openpose_full`预处理器 2. 观察预览是否生成彩色骨架(如示): ![OpenPose骨架示例](https://huggingface.co/lllyasviel/ControlNet/resolve/main/images/pose.png) 3. 输入提示词如`a dancer in red dress`,生成像应保持原姿势[^2] --- ### 五、常见问题解决 - **检测失败**:尝试`openpose`基础模式或调整`Preprocessor Resolution` - **手部畸形**:启用`openpose_hand`并增加`Control Weight`至1.5[^1] - **模型不显示**:检查模型文件是否放在正确路径,重启WebUI > 💡 进阶技巧:在ComfyUI中使用`OpenPose Editor`可手动修正骨架节点[^2]
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值