写给设计师的ComfyUI教程之认知篇

部署运行你感兴趣的模型镜像

大家好我是AIGC阿道夫

开始更新一系列
ComfyUI的

免费教程.

**本文为第一篇.AI认知篇

** 本文主要回答几个问题

**MJ和SD都有什么区别?
ComfyUI工作流是什么?
为什么AI需要"可控"?

****AI这么强大还需要学习3D吗?
**设计师不学习AI会被市场淘汰吗?

所以本篇主要讲的是ComfyUI是什么?和传统的WebUI以及Midjourney都有什么区别.相信看完本篇大家都可以对这些AI工具有着初步了解。

关于AI的绘画工具,市面上大体上只有两种,即是Midjourney(简称MJ)和Stable Diffusion(简称SD)。

Midjourney
MJ是一个AI绘画平台,充值后,上手即用.使用简单,风格效果出色.这也是大部分同学刚刚学习AI的时候最早接触的平台.

MJ最大的优点是:学习简单,上手可用, 出图的美学水准较高.
MJ最大的缺点就是:收费,出图可控性较弱,只能在线生成。

**Stable Diffusion 大模型
**
SD是一个开源AI大模型Stable Diffusion,因为是开源,所以基于SD的模型或者应用百花齐放,这也是AI深度爱好者比较热于研究和探索的模型。

SD 最大的优点就是:开源,免费,本地可部署,可控性很强,可商业落地。
SD最大的缺点就是:环境配置复杂,不好直接上手,需要一定学习成本。

**Flux 大模型 22G
**
上面提到大体有两种,为什么这里又多了一个呢,因为Flux的效果实在太强了.Flux类似SD大模型,是从SD公司离职后自立门户的一个团队,叫黑森林工作室开发的.效果吊打SD,且媲美MJ的精美程度.唯一的问题就是刚刚出来,其生态并不是很完善,但是未来可期.

关于两者的可控性,举个例子,比如生成吗喽版的黑神话,MJ生成的图像(上图)总是像猩猩,因为在西方眼中,悟空就是类似于金刚之类的生物,是猩猩,所以Monkey King这个关键词,出来都是猩猩脸.而下图为Flux结合Lora控图,得出的效果就好很多.细节质感和美术表现都明显好于MJ.

也许你会疑惑MJ生成了那么多高质量的图片,但是如何把自家产品弄上去。有人会告诉你,利用生成好的图PS,也会有人告诉你使用SD,而可控性,意味着商业的落地可能。

但是SD/Flux等只是一个大模型,就好比发动机,只有发动机是不能开动的,还得需要车壳和一系列的零集合成“框架”,基于SD的框架主要有两种,分别是WebUI和ComfyUI。

WebUI可以理解成更加专业版的MJ,只是多很多复杂的调整选项。简单易上手,属于比较传统的“框架”

而ComfyUI是基于节点方式的运行方式,通过调用各种节点来实现所需功能.属于比较新型的“框架”,事实上,市面上有很多新兴软件也采用了节点式,比如houdini,touch designer等。

如果学过C4D的同学,这么解释一下也许就懂了.比如我们调一个材质球有两种方法,一种直接在材质球的属性里面直接调颜色,粗糙度,折射率等等,这些相当于模板预设,是软件开发者给大家设置好了。而如果想进行更复杂一些的材质,就必须用到材质节点。而WebUI就相当于已经集成好各项功能的传统材质球,而ComfyUI就好比节点材质球。

什么叫做ComfyUI工作流?

WebUI适合某单项的的功能,从界面的框架可以看出,功能都是定制好的。ComfyUI因为其节点的运作方式,更像一个乐高。需要什么功能,就可以拼上去。比如,可以使用抠图节点把自家产品抠出来,然后使用合图节点融入到一个新的场景中去,最后使用IClight节点重新打光,再高清放大,这样一个成品的流程,就叫做ComfyUI工作流。

在学习成本方面,WebUI学习成本低,易上手。而ComfyUI上手比较困难。难在部署,但一旦上手,灵活性很高.关于部署的教程将会在下一篇文章说明。

**处理越单一的工作时,比如图片高清放大/图生图等,使用WebUI是比较简单的。

而处理越复杂的工作时,使用ComfyUI搭建虽然较为麻烦,但是一旦搭建好之后,之后就可以批量出图。提高未来的工作效率.**

就比如我搭建了一个线稿转3D-IP角色效果的工作流,有了线稿图之后,可以一键生成3D渲染效果,然后用节点生成的图扣成png,每次有了线稿图,可以很快生成3D效果.根本不用打开C4D建模和渲染了。

再比如做了一个字体海报,苦于没有灵感,不知道如何变得更有趣.也可以使用AI来快速获得灵感

当然,如果有一个模板,甚至可以把这个模板使用节点合上去,不过我这里用的是PS.如果同学们对这个流程感兴趣,我会在未来这套免费课程里面分享这个流程的做法.

到此为止,大家已经初步了解两者的区别。其实都是AI绘图模型的两种不同方式,ComfyUI是大势所趋。所以大家如果想学习ComfyUI,有WebUI的基础更好,没有也没关系,也可以直接学习。

**AI为什么需要可控性?
**可控性是对AI的天马行空胡编乱画的一种约束.比如说我们常常提到的"垫图",就是通过上传参考图让AI生成类似风格或者构图的图像.这就是最常见的可控性.

举个例子,甲方经常觉得设计师做的东西不是自己想要的,这个时候只需要拿出一张图,告诉设计师,就照这个风格抄,往往能得到想要的结果.

在AI生成体系里,设计师是甲方,AI是设计师,我们使用垫图来告诉AI,按这个方向来生图.这就是AI生成里面的图生图的模式.

**在SD/Flux中,有很多重要的控制功能如下


LORA
**LORA是一种用于微调大模型的低秩适应技术.啥叫低秩适应不用管,简单来讲就是大模型是通过亿万张海量图片机器学习而来,普通人当然没有这个条件.但是我们可以通过少量特定风格图片来训练成LORA.这个家用显卡就可以做到.比如用100张黑神话的图来训练成LORA,然后通过使用训练后的LORA,我们可以很轻松的控制大模型生成黑神话风格的图片,上面的图片就是通过LORA生成的.大家应该听过AI炼丹,就是指的炼制LORA.

**IP-Adapter
**IP-Adapter是控制风格迁移的利器,有点类似于垫图,可以把一张图的风格,迁移到另一张图上面.不过大家需要注意,IP-Adapter主要控制的是风格,LORA控制的也是风格.IP-Adapter可以看做是一张图的LORA.

**Controlnet
**Controlnet是一种控制构图的技术,注意,和上面两个不同啦,是控制构图.通过线稿图/深度图/骨骼等方法来控制图像的构图,通过这个技术,可以生成某个动作的人物,或者某个构图的海报.比如通过字体来控型,生成字体海报.就用的是Controlnet

比如在电商领域中可以通过Controlnet里面的深度图控制所需产品的构图,从而保证征程的图片的轮廓和位置,可以大大节省后期合成的时间

当然,除了控制之外,Comfy有N多的节点可以开发,比如生成的产品图片差强人意,也可以用inpaint技术来抹除主体.比如下图,产品不对,石头影响构图,所以抹掉,以便方便后期.

**另外同学们可能会有个疑惑,既然AI那么强大,还需要学习3D吗?
**
其实这个问题很简单,AI是辅助技能,学习更多技能,只是为了在工作中提高效率,更加游刃有余。

我们都知道决定都是领导和甲方定的,
以前的作图方式可能是花费一天时间使用PS或者C4D做一张图。这里面有试错成本。领导甲方不满意,就得重做。
而现在的方式是使用AI做50张不同风格的图,领导甲方从这里面挑一些继续细化。要求不高的话,这一步就领导就定稿了。
要求高的话,最后使用PS或者C4D做完稿或者动态。**

大多数情况下,选择哪个方案这并不是我们设计师能做的决定。我们能做的是给客户或者甲方更多选择,然后把这个稿子尽快推动落地。在一定时间内,尽量降低试错成本。**

要求低的情况下,AI=落地
而要求高的情况下,AI可以降低试错成本,而PS或者3D负责落地。

但是AI有很多不足的地方,比如产品短片,AI完全没法做.现在一些主流AI视频模型已经迭代了大概3代,可控性依然比较差.这也可以理解,这是由AI生成的底层原理决定的.未来几年还需要使用3D软件去实现特定的动态效果.

**未来设计师不会AI会被淘汰吗?
**
和一些技术职业不同,设计师这个职业本来就是应该紧跟设计趋势的,降低焦虑的办法就是,紧跟趋势持续学习就可以了.

再说了,现在都卷,连一部分司机都被萝卜快跑替代了.何况我们设计师呢?

写在最后

SD全套资料,包括汉化安装包、常用模型、插件、关键词提示手册、视频教程等都已经打包好了,无偿分享,有需要的小伙伴可以自取。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

请添加图片描述

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述
请添加图片描述

您可能感兴趣的与本文相关的镜像

ComfyUI

ComfyUI

AI应用
ComfyUI

ComfyUI是一款易于上手的工作流设计工具,具有以下特点:基于工作流节点设计,可视化工作流搭建,快速切换工作流,对显存占用小,速度快,支持多种插件,如ADetailer、Controlnet和AnimateDIFF等

<think> 我们被要求提供一个ComfyUI搭建本地部署教程,但注意ComfyUI通常用于图像生成(如Stable Diffusion相关),而用户提到“z image”,可能是笔误或特定术语。考虑到ComfyUI主要与Stable Diffusion结合使用,我们假设用户想要的是使用ComfyUI在本地部署一个图像生成工作流的教程。 由于ComfyUI是一个基于节点的图形化界面,用于构建Stable Diffusion工作流,我们将提供一个大致的步骤指南。 注意:由于环境差异,具体步骤可能因系统而异,这里以Windows系统为例。 ### ComfyUI本地部署教程(Windows) #### 步骤1:安装Python 确保系统已安装Python(建议3.10或3.11版本)。可以从[Python官网](https://www.python.org/)下载并安装。安装时记得勾选“Add Python to PATH”。 #### 步骤2:安装Git 从[Git官网](https://git-scm.com/)下载并安装Git,以便克隆仓库。 #### 步骤3:克隆ComfyUI仓库 打开命令提示符(CMD)或PowerShell,运行: ```bash git clone https://github.com/comfyanonymous/ComfyUI cd ComfyUI ``` #### 步骤4:安装依赖 在ComfyUI目录中,运行: ```bash pip install -r requirements.txt ``` #### 步骤5:下载模型 需要下载Stable Diffusion模型(如v1.5、v2.1或SDXL),并将其放入`ComfyUI/models/checkpoints/`目录。 可以从Hugging Face下载模型,例如: - [Stable Diffusion v1.5](https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.ckpt) - [SDXL 1.0](https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors) #### 步骤6:运行ComfyUIComfyUI目录下运行: ```bash python main.py ``` 然后打开浏览器访问`http://127.0.0.1:8188/`。 #### 步骤7:使用ComfyUI 在浏览器中,你可以拖拽节点构建图像生成工作流。通常包括: - 加载模型 - 输入提示词(prompt) - 设置参数(如步数、采样器) - 执行生成 为了快速开始,可以使用示例工作流(从社区获取或官方示例)。 ### 注意事项 - 确保有足够的硬件资源(尤其是GPU,NVIDIA显卡推荐)。 - 如果遇到CUDA错误,可能需要安装对应版本的PyTorch(通过`pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121`,根据CUDA版本调整)。 - 模型文件较大,确保有足够的存储空间。 现在,根据要求,在回答后提出3-5个相关问题。 </think>以下是使用ComfyUI在本地搭建图像生成工作流的详细教程(以Stable Diffusion为例): ### 本地部署步骤 1. **环境准备** - 安装Python 3.10+ - 安装Git - 确保有NVIDIA显卡(至少4GB显存) 2. **克隆仓库** ```bash git clone https://github.com/comfyanonymous/ComfyUI cd ComfyUI ``` 3. **安装依赖** ```bash pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121 pip install -r requirements.txt ``` 4. **下载模型** - 将Stable Diffusion模型(.ckpt或.safetensors)放入: `ComfyUI/models/checkpoints/` - 下载VAE文件放入: `ComfyUI/models/vae/` 5. **启动服务** ```bash python main.py --listen ``` - 访问 `http://localhost:8188` 使用Web界面 6. **基础工作流搭建** ```json { "last_node_id": "3", "nodes": [ { "id": "1", "type": "CheckpointLoaderSimple", "pos": [100,200], "inputs": {"ckpt_name": "v1-5-pruned-emaonly.safetensors"} }, { "id": "2", "type": "CLIPTextEncode", "pos": [300,100], "inputs": {"text": "a cute cat", "clip": ["1",1]} }, { "id": "3", "type": "KSampler", "pos": [500,300], "inputs": {"seed": 42, "steps": 20, "cfg": 7, "sampler_name": "euler", ...} } ] } ``` > 拖拽节点构建:加载模型 → 输入提示词 → 设置采样器 → 连接VAE解码器 → 输出图像 7. **常见问题解决** - 显存不足:添加`--lowvram`启动参数 - 缺少节点:通过管理器安装插件 ```bash cd custom_nodes git clone https://github.com/ltdrdata/ComfyUI-Manager ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值