【BDSD基础教程】轮廓提取类ControlNet使用方法大揭秘

 有很多人问小新

“怎么在BDSD里用自己的模型图制作效果图哇?”

“为什么我生成的图和我想的完全不一样?”

这个时候,你就需要

图片

——什么是轮廓提取类ControlNet?——

图片

ControlNet使用了“Conditional Generative Adversarial Networks”

(条件生成对抗网络)的技术来生成图像……

(太专业了看不懂!)

轮廓提取类ControlNet可以从我们提供的图片

提取出各类要素的形状,

作为后续生成图片的骨架

从而精准控制图片生成内容

(还是很抽象?上图!) 

图片

轮廓提取方式大解析

很多朋友们又要问了:

“选择这么多,每个又是什么意思啊?”

别担心!小新每个都带你看看~

图片

*Depth原本属于“深度类” 的ControlNet,由于它也有提取轮廓的作用,所以我们就把它放在这里啦。

如何使用

Step 1

「参考图片」区,选择「轮廓底图」,点击「上传图片」-「本地上传」,选择自己想要处理的模型图、平面图等上传。

图片

Step2 

选择想要的提取方式,对应的提取结果会显示在右侧(建议每种提取方式都尝试一下,选择最符合自身需求的那个)

图片

高阶选手还可以可以根据出图的需求,打开我们的「权重调整」参数,灵活调整这三个参数的值。

图片

轮廓影响力度:提取出的轮廓在后续生成图片时的影响力度。力度越低,生成图片和我们提供图片轮廓的相似度就越低(会走形)。

影响开始阶段:生成图片时,提取出的轮廓的介入时机,取值范围为0-1,默认值为0。数值越小,提取出的轮廓对生成图片的影响越强。

影响结束阶段:生成图片时, 提取出的轮廓退出的时机,取值范围为0-1。数值越大,提取出的轮廓对生成图片的的影响越强。

案例演示

相信大家对轮廓提取类ControlNet的功能应该有了一定的了解啦。

接下来,就让我们实战操作一下~用我们的模型图片渲染出一个大门!

图片

 请出我们的老朋友!

(大家可以保存图片到本地,跟着教程逐步操作)

Step1: 提取轮廓

「参考图片」上传图片,选取合适的轮廓提取方式 

图片

小新在多次测试之后选择了Depth

因为它对这张参考图片的轮廓提取效果最好

Step2:输入提示词

图片

正向提示词:masterpiece, realistic style ,best quality, streetscape, a modern gate, architecture, black marble doorway, rooftop of special design, realistic glass curtain wall reflection, photorealistic, architectural renderings, tree, fence, landscape, depth of field,

杰作、写实风格、最佳品质、街景、现代大门、建筑、黑色大理石门口、特殊设计的屋顶、写实玻璃幕墙反射、照片级真实感、建筑效果图、树木、围栏、景观、景深、

反向提示词:Bare skin, NSFW, bad-artist-anime, owres,bad anatomy, bad hands, text, error,missing fingers,extra digit,fewer digits,cropped,worstquality, low quality, normal quality, ipegartifacts, signature, watermark, username, blurry, bad feet, cropped, poorly drawn hands, poorly drawn face, mutation, deformed, worst quality, ow quality, normal quality, jpeg artifacts, signature, watermark, extra fingers, fewer digits, extra limbs, extra arms, extra legs,malformed limbs, fused fingers, too many fingers, ong neck, cross-eyed, mutated hands, polar lowres, bad body, bad proportions, gross proportions, text, error, missing fingers, missing arms, missing legs, extra digit,

裸露的皮肤、NSFW、糟糕的艺术家动漫、猫头鹰、糟糕的解剖结构、糟糕的手、文字、错误、缺失的手指、多余的数字、更少的数字、裁剪、最差的质量、低质量、正常质量、ipegartifacts、签名、水印、用户名、模糊、脚不好、裁剪、手画得不好、脸画得不太好、突变、变形、质量最差、质量低、质量正常、jpeg、人工制品、签名、水印、多余的手指、更少的数字、多余的肢体、多余的手臂、多余的腿、畸形的肢体、融合的手指、过多的手指、长颈、斗鸡眼、变异的手、极低分辨率、不良的身体、不良的比例、粗大的比例、文本、错误、缺失的手指、缺失的手臂、缺失的腿、多余的数字、

可以直接复制上述提示词至输入框

Step3: 选择风格与Lora模型 

图片

图片

 风格选择:百变景观

Lora:地产景观、地产大门

小新小Tips:

这里的“模型”指的不是景观设计中的三维模型哦。

我们可以把SD里的“模型”理解为素材库,有小清新景观素材库、中式景观素材库、现代建筑素材库…选择模型,就是选不同风格的素材库!

「风格」是必选,且只能选一个,是我们的大素材库~

「Lora模型」非必选,可以选多个叠加,是可以对大素材库起补充作用的小素材库~

Step4: 设置「图像尺寸」 

图片

点击「图像尺寸」右侧的「修改尺寸」,点击「参考图片尺寸」就能自动显示我们上传图片的尺寸大小,非常方便!

Step5: 调整「高级参数」

打开「高级参数」右侧“开关”,即可进行调整

图片

参数解析:

描述相关性:生成图片与提示词的匹配度,数值越高,匹配度越高。默认为7(能在AI的创造力与我们的提示词之间保持最佳平衡),不建议低于5。

迭代步数:SD生成图片时的“用心程度”,数值范围为1(心不在焉)-150(非常上心)。一般选择20-40,数值越高出图越慢,且图片提升的效果有限。

Clip跳过层:Stable Diffusion模型有12层,跳过层是指跳过其中的某些层。跳过的层越多,细节就丢失得越多,因此一般默认为2。

重绘幅度:控制SD在原图基础上进行重绘时的自由程度。数值越高,生成图片和参考图片的差异越大,一般控制在0.6-0.8.

采样方法:SD去噪的过程。不同的采样方法,出图效果也不同。

采样方法选择建议::

  • 想快速生成质量不错的图片,建议选择DPM++2M karras(迭代步数20-30步)、UNIPC(迭代步数15-25步)

  • 想要高质量的图,不关心重现性,建议选择DPM++SDE karras(迭代步数10-15步,生成时间较长),DDIM(迭代步数10-15步,生成较快)

  • 想要简单的图,建议选择Euler, Heun(可以减少迭代步数以节省时间)

  • 想要稳定可重现的图像,请避免选择任何祖先采样器(名字里带a或SDE的)。相反,如果想要每次生成不应的图像,则可选。

    来源:优快云 w风雨无阻w

VAE模型:学名为“变分自编码器”,主要有2大功能:①滤镜,让生成图片的整体色彩饱和度更高;②细节调整:部分VAE模型会对生成图片的细节进行细微的调整(变化不会特别明显)。我们的软件一般都会在后台根据您选的大模型进行自动配置~

随机种子:每张通过SD生成的图片都会有一个随机种子,就像是图片的“身份证”,用来记录生成图片过程中的各种信息,方便在下次生成图片时最大限度的进行还原。

①当随机种子为-1时,表示未使用种子进行参考出图,后续出图都是随机状态

②填入随机种子后,后续生成的图片都会参考这个种子的风格、样式进行生成

Step6: 点击「立即生成」

让我们来一起看看生成的结果! 

图片

图片

图片

这样就能在保留我们参考图片基本轮廓的基础上生成效果图啦~

可以多点击几次「立即生成」

 

图片

或者调整生成数量,一次生成多张

获取更多效果与灵感哦~

大家都学会了吗?

快快应用起来吧~

【本文生成图片,仅做演示用】

本教程的初衷是让您掌握轮廓提取类ControlNet的操作,

最终生成图片也仅为演示所用,

并不证明我们的效果已经登峰造极。

图片

图文: Eleanor Young

排版:Jojo Chan

审核:Daddy Pig | Eleanor Young | Jojo Chan

Copyright © 新山水科技(广东)有限公司

合作请联系:ikeysoft@163.com

转载事宜请私信 | 获得授权后方可转载

文章仅用于学习交流

如有问题请及时与我们联系

我们将第一时间做出处理

<think>嗯,用户让我详细讲解一下ComfyUI的ControlNet使用方法。首先,我需要确定用户对ComfyUI和ControlNet的了解程度。可能他们已经有基本的Stable Diffusion使用经验,但对ComfyUI的节点式界面不太熟悉。用户可能想通过ControlNet更精确地控制图像生成,比如姿势、线条或色彩等。 接下来,我应该先解释ComfyUI是什么,强调其节点式工作流的灵活性。然后介绍ControlNet的基本概念,说明它在图像生成中的作用,比如通过边缘检测、深度图等条件控制生成结果。 在讲解使用方法时,需要分步骤说明如何在ComfyUI中安装ControlNet,可能用户会遇到安装问题,需要提醒他们检查插件是否兼容。然后详细说明如何添加ControlNet节点,选择预处理器和模型,连接输入输出节点。这里可能需要用具体的例子,比如使用Canny边缘检测,演示从加载图像到生成最终结果的过程。 还要注意常见问题,比如模型加载失败、预处理效果不佳等,给出解决方案。用户可能对不同的ControlNet模型不太清楚用途,需要简要介绍几个常用模型,如OpenPose、Depth、Scribble等,帮助用户根据需求选择。 最后,总结使用ControlNet的好处,并鼓励用户实践。同时确保使用正确的LaTeX格式,虽然在这个主题中数学公式可能不多,但如果有涉及参数或方程的地方,要正确应用格式。整个回答要结构清晰,步骤明确,语言口语化,避免技术术语堆砌,让用户容易理解。</think>好的!我将以分步讲解的形式为你介绍 **ComfyUI 的 ControlNet 使用方法**,帮助你在节点式工作流中实现更精准的图像控制。 --- ### **1. ComfyUI 是什么?** ComfyUI 是一个基于 **节点式操作界面** 的 Stable Diffusion 工具,通过可视化连接不同功能模块(节点)构建生成流程。它的优势在于: - **灵活性**:自由组合模型、条件控制、后处理等模块 - **可定制性**:支持插件扩展(如 ControlNet) - **低显存占用**:通过优化节点执行顺序节省资源 --- ### **2. ControlNet 的核心作用** ControlNet 是一种通过 **额外条件控制图像生成** 的技术,常见应用场景包括: - 姿势控制(如 OpenPose) - 边缘/线稿保留(如 Canny、MLSD) - 深度图引导(如 Depth) - 色彩分布约束(如 Color) --- ### **3. ComfyUI 中 ControlNet使用步骤** 以下以 **Canny 边缘检测** 为例,演示完整流程: #### **步骤 1:安装 ControlNet 插件** - 在 ComfyUI 的 `custom_nodes` 文件夹中,安装官方或第三方 ControlNet 插件(如 [ComfyUI-Advanced-ControlNet](https://github.com/Kosinkadink/ComfyUI-Advanced-ControlNet)) - 确保下载对应的 **ControlNet 模型**(`.safetensors` 文件),放置到 `models/controlnet` 目录 #### **步骤 2:构建基础生成流程** ```plaintext [加载模型] → [正向提示词] → [KSampler] → [VAE 解码] → [保存图像] ``` #### **步骤 3:添加 ControlNet 节点** 1. **加载 ControlNet 模型** - 添加 `Load ControlNet Model` 节点,选择对应的模型(如 `control_v11p_sd15_canny.pth`) 2. **预处理输入图像** - 添加 `Canny Edge Preprocessor` 节点,上传参考图并调整阈值(低阈值=保留更多细节) 3. **连接条件到采样器** - 将 ControlNet 输出连接到 `KSampler` 的 `positive` 和 `negative` 条件端口 #### **步骤 4:完整节点连接示例** ```plaintext [加载模型] → [正向提示词] → [KSampler] ↑ ↓ [ControlNet] ← [Canny预处理] [VAE 解码] → [保存图像] ``` #### **步骤 5:调整参数** - **ControlNet 权重**:通常 0.5~1.0(过高会导致图像僵硬) - **起始/终止步数**:控制介入时机(例如 0.0~1.0 表示全程生效) - **预处理参数**:如 Canny 的 low_threshold 和 high_threshold --- ### **4. 常用 ControlNet 模型与用途** | 模型型 | 预处理器 | 适用场景 | |---------------|----------------|----------------------------| | Canny | Canny | 保留边缘细节(线稿→上色) | | Depth | Midas | 3D 空间层次控制 | | OpenPose | OpenPose | 人物姿势复刻 | | Scribble | None | 手绘涂鸦引导 | | Segmentation | Uniformer | 区域色彩/内容控制 | --- ### **5. 常见问题解决** - **模型加载失败** 检查模型文件是否完整,路径是否匹配 `models/controlnet` - **预处理无效果** 确认预处理器节点正确连接,且输入图像已加载 - **生成结果僵硬** 降低 ControlNet 权重或调整介入步数范围 --- ### **6. 进阶技巧** - **多 ControlNet 叠加**:串联多个 ControlNet 实现复杂控制(如 Pose+Depth) - **条件遮罩**:配合 `Conditioning Mask` 节点局部控制生效区域 - **动态参数**:使用 `Reroute` 节点在流程中实时调整权重 --- 通过以上步骤,你可以在 ComfyUI 中灵活运用 ControlNet 实现精准的图像生成控制。实际使用时,建议从单一条件开始测试,逐步叠加复杂度。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值