“工作流“的AI绘画 —— ComfyUI[1_安装及初次使用篇]

首先介绍一下AI绘画的过程,AI绘画的整个流程可以简化作为将图片信息或者文字信息转化为潜空间的信息,然后通过采样转换为目标的图片信息,最终再转换出来成为图片信息的流程。

那么其中转换的每个环节之间需要的也就是各种的功能性节点。整个节点链接在一起的也就是comfyUI的工作流。

通俗的来讲,整体过程就是:

比喻一下,将一个面团放入烤箱里,经过烤箱的烘焙,它变成了香喷喷的面包。

同样地,当我们提供描述文字或图片作为需求,将其放入ComfyUI这个"烤箱"中,经过精巧的处理和创造力的火焰,最终呈现出我们所需的AI图片,就像面包一样美味可口。

这个过程就像一场魔法,将想象变成了现实,带给我们视觉上的满足与愉悦。

👇👇👇想要进一步咨询学习规划及更多相关领域资料,请文末扫🐎咨询老师👇👇👇

Tips

本篇主要关注于ComfyUI的快速搭建和AI图片的生成过程,而并非深入解析其生成原理。着眼于能够迅速上手使用,先体验其功能和效果,然后再逐步学习其背后的运行原理。

接下来就以Windows系统和NVIDIA独立显卡为例,简单搭建一个ComfyUI工作流。

安装与配置相关

推荐配置:

    >8GB的显存,推荐独立显卡。

  * 1

安装:

1.  下载百度网盘中的压缩包(百度网盘链接在文末)

2.  下载完成后,将压缩包解压,点击

  * 1
  * 2
  * 3

ComfyUI_windows_portable_nvidia_cu121_or_cpu
/ComfyUI_windows_portable目录下名为run_nvidia_gpu(或者为run_nvidia_gpu.bat)的文件,出现的黑框不要关闭,稍等一会就会打开一个网页界面,如果没有自动跳转,可以在网页的地址栏中输入http://127.0.0.1:8188/来打开ComfyUI的页面

)

使用ComfyUI正式画一张图

点击最左边的框内(即上图红色圈圈出的位置)的箭头,直到出现"官方模组:Stable Diffusion 1.4.ckpt"

在绿色圈圈出的位置中输入以下内容:(复制即可)

(worstquality,lowquality:1.4,(((simplebackground))),monochrome,lowres,bad
anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits,
cropped, worst quality, low quality, normal quality, jpeg artifacts,
signature, watermark, username, blurry, lowres, bad anatomy, bad hands, text,
error, extra digit, fewer digits, cropped, worst quality, low quality, normal
quality, jpeg artifacts, signature, watermark, username,
blurry,ugly,pregnant,vore,duplicate,morbid,mutilated,tran nsexual,
hermaphrodite,long neck,mutated hands,poorly
drawnhands,poorlydrawnface,mutation,deformed,blurry,badanatomy,badproportions,malformedlimbs,extralimbs,clonedface,disfigured,gross
proportions, (((missing arms))),(((missinglegs))),(((extra arms))),(((extra
legs))), plump,bad legs,error legs,username,blurry,bad feet, blur,

在蓝色圈内,输入任意你想画的内容,例如:猫

点击最右边紫色框圈出的内容,即Queue Prompt

按照这个流程,你就可以得到你绘画的第一次AI图片了!

AI绘画例图:

现在AI绘画还是发展初期,大家都在摸索前进。

但新事物就意味着新机会,我们普通人要做的就是抢先进场,先学会技能,这样当真正的机会来了,你才能抓得住。

如果你对AI绘画感兴趣,我可以分享我在学习过程中收集的各种教程和资料。

学完后,可以毫无问题地应对市场上绝大部分的需求。

这份AI绘画资料包整理了Stable Diffusion入门学习思维导图Stable Diffusion安装包120000+提示词库,800+骨骼姿势图,Stable Diffusion学习书籍手册AI绘画视频教程AIGC实战等等。

完整版资料我已经打包好,点击下方卡片即可免费领取!

【Stable Diffusion学习路线思维导图】

img

【Stable Diffusion安装包(含常用插件、模型)】

img

【AI绘画12000+提示词库】

img

【AI绘画800+骨骼姿势图】

img

【AI绘画视频合集】

img

这份完整版的stable diffusion资料我已经打包好,点击下方卡片即可免费领取!
在这里插入图片描述

### ComfyUI用于AI绘画教程和示例 #### 安装ComfyUI 对于希望利用ComfyUI进行AI绘画的用户来说,安装过程是一个重要的起点。由于ComfyUI具有较高的上手难度,建议具备一定的Stable Diffusion及相关扩展能力的理解基础[^2]。 #### 配置环境 在开始前,确保计算机环境中已正确配置Python和其他必要的依赖库。这通常涉及到设置虚拟环境来隔离项目所需的特定版本软件包。 #### 下载并启动ComfyUI 访问官方GitHub仓库获取最新版源码文件,并按照README.md中的指示完成本地部署工作。一般情况下,通过命令行工具执行如下操作即可快速搭建起开发框架: ```bash git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI pip install -r requirements.txt python main.py --listen --port 8090 ``` 上述脚本会克隆仓库到当前目录下,进入该目录后依据需求列表自动下载所需第三方模块;最后一条语句则用来监听指定端口等待HTTP请求连接。 #### 探索界面布局与核心组件 初次打开Web UI页面时可能会感到陌生,但不必担心——这里列举了一些常用功能区及其作用简介: - **Nodes面板**:提供多种预设节点供拖拽构建图像处理流程图; - **Properties窗口**:调整选定节点参数选项; - **Canvas区域**:可视化编辑空间,在此链接不同类型的算子形成复杂管线结构; - **Output视窗**:实时查看渲染进度及最终成果展示。 #### 实战演练:创建简单绘图流水线 下面给出一段具体的实例代码片段作为入门指南的一部分,演示怎样组合基本构件实现风格迁移效果转换: ```json { "class_type": "KSampler", "inputs": { "model": [ "CheckpointLoaderSimple", 0, "result" ], "positive": [ "CLIPTextEncode", 0, "conditioning" ] } } ``` 这段JSON定义了一个采样器节点(KSampler),它接收来自其他两个上游单元传递过来的数据流分别代表模型权重加载结果(CheckpointLoaderSimple)以及正向提示词编码(CLIPTextEncode)[^3]。 #### 扩展阅读与深入学习资源推荐 随着熟练度提升,不妨尝试探索更多高级特性比如动画差异(AnimateDiff)插件支持等功能点。这类附加组件能够极大程度丰富创作手段,满足个性化表达诉求的同时也为作品注入灵魂。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值