24最新comfyui工作流保姆级教程来啦!comfyui工作流搭建看这一篇就够了

前言

ComfyUI 是一个基于节点流程式的stable diffusion AI 绘图工具WebUI, 通过将stable diffusion的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性。

ComfyUI因为内部生成流程做了优化,生成图片时的速度相较于WebUI有10%~25%的提升(根据不同显卡提升幅度不同),生成大图片的时候不会爆显存,只是图片太大时,会因为切块运算的导致图片碎裂。

一、下载安装

所有的AI设计工具,模型和插件,都已经整理好了,👇获取~

在这里插入图片描述

下载release包并解压

二、配置模型

将checkpoint模型放入ComfyUI\models\checkpoints目录

ComfyUI与WebUI之间共享模型

在ComfyUI目录中将extra_model_paths.yaml.example文件复制一份,重命名为将extra_model_paths.yaml

修改a111的base_path路径为WebUI路径

三、启动

运行run_nvidia_gpu.bat启动ComfyUI

四、更新

如果后面需要更新ComfyUI,可以直接使用update_comfyui.bat,就不需要重新下载和配置了

五、使用

鼠标右键呼出节点目录,可以直接在目录中选择节点。

鼠标双击呼出节点搜索窗口,知道节点名称的话,直接搜索比较快。

连接好节点网络,通过点击面板右侧的工具栏中的 Queue Prompt,就能开始图片生成了。

通过使用鼠标点击拖动节点上的输出输入点,即可创建连线。

一般的的节点网络包括:

  • 输入阶段:模型输入,图片输入等。负责载入模型和图片。
  • Clip阶段:clip跳过,clip编码器,lora,controlnet都在这个阶段。
  • Unet阶段:ksampler节点,负责在潜空间生成图片。参数和webui中的生成参数基本上相同。
  • Vae解码阶段:将生成的图片从潜空间转换成RGB色彩空间。Vae解码节点可以链接不同的VAE来得到不同的解码结果。
  • 保存和后处理阶段:预览,保存,后处理

六、节点说明

1、Load Checkpoint(加载大模型节点)

加载大模型节点可以根据提供的配置文件加载扩散模型。

输入:

  • ckpt_name:要加载的模型名称

输出:

  • MODEL:用于去噪潜在变量的模型,连接到kSampler采样器,在采样器中完成反向扩散过程
  • CLIP:用于编码文本提示的CLIP模型
  • VAE:用于将图像编码和解码到潜在空间的VAE模型,在文生图中,连接到VAE解码器,将图像从潜在空间转换为像素空间
2、CLIP Text Encode (Prompt)(CLIP 文本编码 (Prompt) 节点)

CLIP 文本编码 (Prompt) 节点可以使用 CLIP 模型将文本提示编码成嵌入,这个嵌入可以用来指导扩散模型生成特定的图片。

CLIP 文本编码 (Prompt) 节点的 CONDITIONING 输出连接到 kSampler 采样器的输入正向提示和负向提示

3、Empty Latent Image(空潜在图像节点)

空潜在图像(Empty Latent Image)节点可以用来创建一组新的空白潜在图像。这些潜在图像可以被例如在txt2img工作流中通过采样器节点进行噪声处理和去噪后使用。

输入(inputs)包括潜在图像的像素宽度(width)和像素高度(height),以及潜在图像的数量(batch_size)。输出(outputs)则是空白的潜在图像(LATENT)。

4、KSampler(采样器)

KSampler 是 Stable Diffusion 中图像生成的核心。采样器将随机图像降噪为与提示匹配的图像。

  • seed:随机种子值控制潜在图像的初始噪声,从而控制最终图像的合成。
  • control_after_generation:种子如何变化。它可以是获取随机值(randomize)、加 1(increment)、减 1(decrement)或保持不变(fixed),如果想保持生成图片的一致性,那么就选择固定。
  • steps:采样步长数。数值越高,失真就越少,一般设置20-30左右。
  • cfg:重绘幅度和提示词相关性,值越高,提示词的相关性越高。如果太高,会失真。
  • sampler_name:在这里,您可以设置采样算法。
  • scheduler:控制每个步骤中噪音水平的变化方式。
  • denoise:降噪过程应消除多少初始噪音。1 表示全部。
5、Upscale Latent(放大潜在图像节点)

放大潜在图像节点可以用来调整潜在图像的大小。

输入

  • samples:需要被放大的潜在图像
  • upscale_method:图像放大方法
  • width:目标像素宽度
  • height:目标像素高度
  • crop:是否通过中心裁剪图片

输出:

  • LATENT:调整大小后的潜在图像
6、VAE Decode(VAE解码节点)

VAE解码节点可以用来将潜在空间图像解码回像素空间图像,解码过程使用提供的变分自编码器VAE。

7、Load LoRA(加载LoRA)

Load LoRA 节点可用于加载 LoRA,多个 LoRA可以用串行的方式连接在一起。

输入

  • model:扩散模型。
  • clip:CLIP 模型。
  • lora_name:LoRA 名称。
  • strength_model:修改扩散模型强度。此值可以为负。
  • strength_clip:修改 CLIP 模型强度。此值可以为负。

输出

  • MODEL:修改后的扩散模型。
  • CLIP:修改后的 CLIP 模型。
8、ControlNet

9、ComfyUI-Florence2反推插件

Florence-2 是一种高级视觉基础模型,它使用基于提示的方法来处理各种视觉和视觉语言任务。Florence-2 可以解释简单的文本提示,以执行字幕、对象检测和分割等任务。

使用ComfyUI Manager安装ComfyUI-Florence2插件

使用Florence2反推提示词

模型模型尺寸模型描述
Florence-2-base[HF]0.23B使用 FLD-5B 的预训练模型
Florence-2-large[HF]0.77B使用 FLD-5B 的预训练模型
Florence-2-base-ft[HF]0.23B对下游任务的集合进行微调的模型
Florence-2-large-ft[HF]0.77B对下游任务的集合进行微调的模型

这里分享给大家一份Adobe大神整理的《AIGC全家桶学习笔记》,相信大家会对AIGC有着更深入、更系统的理解。

有需要的朋友,可以点击下方免费领取!

在这里插入图片描述

AIGC所有方向的学习路线思维导图

这里为大家提供了总的路线图。它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。如果下面这个学习路线能帮助大家将AI利用到自身工作上去,那么我的使命也就完成了:
在这里插入图片描述

AIGC工具库

AIGC工具库是一个利用人工智能技术来生成应用程序的代码和内容的工具集合,通过使用AIGC工具库,能更加快速,准确的辅助我们学习AIGC
在这里插入图片描述

有需要的朋友,可以点击下方卡片免费领取!

在这里插入图片描述

精品AIGC学习书籍手册

书籍阅读永不过时,阅读AIGC经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验,结合自身案例融会贯通。

在这里插入图片描述

AI绘画视频合集

我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,科学有趣才能更方便的学习下去。

在这里插入图片描述

<think>好的,我现在需要帮助用户解决在ComfyUI中下载模型的问题。用户提到想了解如何在工作流中下载模型,或者找到相关的教程和方法。首先,我应该回忆一下之前提供的引用内容,特别是引用[1]和引用[2],因为它们提到了模型存放的位置和SDXL双模型的结构。 首先,用户可能不太清楚ComfyUI的模型管理方式和下载步骤。根据引用[1],模型需要放在ComfyUI\models\checkpoints目录下,并且可以与WebUI共享模型。所以,用户可能需要知道如何正确放置下载的模型文件。但用户的问题是关于下载模型的教程或方法,所以需要指导他们如何获取模型文件,而不仅仅是放置位置。 接下来,引用[2]详细介绍了SDXL模型的构成,包括base和refiner模型,以及它们的用途。这可能意味着用户对SDXL模型特别感兴趣,所以需要提供下载这些模型的具体步骤。同时,用户可能需要了解从哪里下载这些模型,比如官方网站或社区推荐的平台。 用户可能遇到的问题包括:不知道去哪里下载模型、下载后如何正确安装到ComfyUI中,以及如何在工作流中配置双模型。因此,回答需要分步骤说明下载流程,推荐可靠的资源网站,并指导如何放置模型文件。此外,可能还需要提及如何在工作流中添加模型节点,特别是使用双模型时的注意事项。 还需要考虑用户的操作系统,但一般来说,路径结构在Windows和Linux下类似,只是斜杠方向不同。另外,要提醒用户注意模型文件的格式,通常是.safetensors或.ckpt,确保下载正确的文件类型。 另外,用户可能对模型共享感兴趣,即如何在ComfyUI和WebUI之间共享已有的模型,避免重复下载。这需要说明如何通过符号链接或直接复制文件到指定目录来实现。 最后,需要生成相关问题,可能涉及模型管理、工作流配置、常见问题解决等,以帮助用户进一步学习。</think>在ComfyUI中下载和使用模型需要遵循特定的目录结构和工作流配置方法。以下是分步操作指南: ### 一、模型下载与安装步骤 1. **获取模型文件** - 访问官方模型库(如HuggingFace、CivitAI)或社区推荐平台 - 推荐SDXL模型下载地址: ```text https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0 https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0 ``` - 下载后得到`.safetensors`格式文件,这是当前推荐的安全模型格式 2. **目录结构配置** ```bash ComfyUI ├── models │ ├── checkpoints # 主模型存放位置[^1] │ ├── vae # 变分自编码器 │ ├── lora # LoRA模型 │ └── upscale_models # 超分辨率模型 ``` 将下载的SDXL base模型和refiner模型都放入`checkpoints`目录 3. **模型共享配置(可选)** - 若已安装WebUI,可通过符号链接共享模型: ```bash mklink /J "ComfyUI\models\checkpoints" "WebUI\models\Stable-diffusion" ``` ### 二、工作流配置示例 ![SDXL双模型工作流示意图] 1. 基础模型节点配置 ```python Load Checkpoint -> CLIP Text Encode -> KSampler -> VAE Decode ``` 在节点参数中选择`sd_xl_base_1.0.safetensors` 2. 细化模型衔接配置 ```python KSampler输出 -> Refiner Load Checkpoint -> CLIP Text Encode -> KSampler ``` 细化模型使用`sd_xl_refiner_1.0.safetensors`,噪声水平建议设置为0.3-0.5[^2] ### 三、注意事项 1. 模型文件大小: - Base模型约6.9GB - Refiner模型约6.6GB 2. VRAM需求: - 使用双模型需要至少8GB显存 3. 文件验证: ```bash # 检查模型哈希值 certutil -hashfile your_model.safetensors SHA256 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值