Stable Diffusion常用模型及必备插件推荐

前言

一、模型说明

1、分类

模型主要分为四类:Checkpoint、LoRA、Textual Inversion、Hypernetwork,分别对应 4 种不同的训练方式。

Checkpoint:通过 Dreambooth 训练方式得到的大模型, 特点是出图效果好,但由于训练的是一个完整的新模型,所以训练速度普遍较慢,生成模型文件较大,一般几个 G,文件格式为 safetensors 或 ckpt。模型存放路径:models/Stabl-diffusion是WEBUI的存放地址,models/checkpoints是ComfyUI的存放地址。

LoRA:一种轻量化的模型微调训练方法,是在原有大模型的基础上,对该模型进行微调,用于输出固定特征的人或事物。特点是对于特定风格特征的出图效果好,训练速度快,模型文件小,一般几十到一百多 MB,需要搭配大模型使用。

Textual Inversion:一种使用文本提示来训练模型的方法,可以简单理解为一组打包的提示词,用于生成固定特征的人或事物。特点是对于特定风格特征的出图效果好,模型文件非常小,一般几十 K,但是训练速度较慢,需要搭配大模型使用。

Hypernetwork:类似 LoRA,但模型效果不如 LoRA,需要搭配大模型使用。

2、主要下载地址

所有的AI设计工具,安装包、模型和插件,都已经整理好了,👇获取~

在这里插入图片描述

二. 模型推荐

真实世界类

  1. DreamShaper8以上版本

  2. Deliberate

  3. Realistic Vision

  4. epic realism

  5. majicMix realistic

二次元类

  1. GhostMix

  2. anything

  3. meinamix

  4. Counterfeit

  5. toonyou

2.5D类

  1. ReV Animated

  2. Realcartoon3D

  3. Dark Sushi

  4. XXMix_9realistic

三、插件推荐

ComfyUI-Manager 管理器(必备)

git clone https://github.com/ltdrdata/ComfyUI-Manager.git   

AIGODLIKE-ComfyUI-Translation(界面汉化)

git clone https://github.com/AIGODLIKE/AIGODLIKE-ComfyUI-Translation   

ComfyUI_Custom_Nodes_AlekPet(提示词中文输入)

git clone https://github.com/AlekPet/ComfyUI_Custom_Nodes_AlekPet   
#如果不喜欢上面那个,可以用这个代替,但是需要在本地下载语言模型,可以不用联网翻译,更快,安装后重新启动UI后自动下载语言模型文件。   git clone https://github.com/MofaAI/ComfyUI-Prompt-Translator.git      pip install -U huggingface_hub hf_transfer   set HF_ENDPOINT=https://hf-mirror.com   huggingface-cli download --resume-download facebook/mbart-large-50-many-to-many-mmt   

sdxl_prompt_styler(SDXL提示词风格预设)

git clone https://github.com/twri/sdxl_prompt_styler   

ComfyUI-Custom-Scripts(辅助工具)

git clone https://github.com/pythongosssss/ComfyUI-Custom-Scripts   

ControlNet

可以通过管理器安装,因为会自动安装很多的依赖   

效率节点

git clone https://github.com/jags111/efficiency-nodes-comfyui   

IPAdapter

git clone https://github.com/cubiq/ComfyUI_IPAdapter_plus   

Instantid

可以通过管理器安装,手动安装比较复杂,需要安装很多的依赖和前置   

图像的语义分割器

git clone https://github.com/storyicon/comfyui_segment_anything.git   

图像选择器 和 全局节点(同一个作者)

git clone https://github.com/chrisgoringe/cg-image-picker.git   git clone https://github.com/chrisgoringe/cg-use-everywhere.git   

二维码节点

git clone https://github.com/coreyryanhanson/ComfyQR-scanning-nodes.git   python -m  pip install -r  requirements.txt   

ComfyUI 浏览器

git clone https://git clone https://github.com/tzwm/comfyui-browser.git   

工作流管理

git clone https://github.com/11cafe/comfyui-workspace-manager.git   

一键提词,可视化界面提示词生成器

git clone https://github.com/AIrjen/OneButtonPrompt.git   

SD版图像放大

git clone https://github.com/ssitu/ComfyUI_UltimateSDUpscale --recursive   

插件侧边栏管理,插件太多可以装个

git clone https://github.com/Nuked88/ComfyUI-N-Sidebar.git   

BRIA 背景去除 v1.4(一个非常强的背景去除插件,结合文件管理器批量处理,干电商的福音啊)

git clone https://github.com/ZHO-ZHO-ZHO/ComfyUI-BRIA_AI-RMBG.git   

可视化提示词,只看图片,非常适合像我这样的艺术小白

git clone https://github.com/ZHO-ZHO-ZHO/ComfyUI-ArtGallery.git   

图表化的CPU GPU 工具集

git clone https://github.com/crystian/ComfyUI-Crystools.git   cd ComfyUI-Crystools   pip install -r requirements.txt   

Prompt 提示词反推

git clone https://github.com/pythongosssss/ComfyUI-WD14-Tagger    cd ComfyUI-WD14-Tagger    pip install -r requirements.txt   

舒适插件,其中最好用的就是图像对比节点

git clone https://github.com/rgthree/rgthree-comfy.git   

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

对于0基础小白入门:

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!

零基础AI绘画学习资源介绍

👉stable diffusion新手0基础入门PDF👈

在这里插入图片描述
在这里插入图片描述

👉AI绘画必备工具👈

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉AI绘画基础+速成+进阶使用教程👈

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉12000+AI关键词大合集👈

在这里插入图片描述

这份完整版的AI绘画全套学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Stable Diffusion 是一种基于扩散模型的生成式人工智能技术,通常用于文本和图像内容的创造,尤其是高质量的自然语言描述和图像合成。以下是几种常见的 Stable Diffusion 模型: 1. **Diffusion Probabilistic Model (DPM)**: 这种模型的核心是一个概率过程,通过逐步增加噪声来将原始信号转化为最终的随机输出。在 Stable Diffusion 中,DPM 可能是指 UNet 或类似结构的解码器网络,用于从噪声样本恢复原始内容。 2. **Latent Diffusion Model (LDM)**: LDM 是对 DPM 的改进版本,它的工作原理是在潜在空间中进行扩散,使得模型能够更好地控制生成的内容并提高多样性。 3. **CLIP-guided Diffusion**: 结合了 CLIP( Contrastive Language-Image Pretraining)这样的预训练模型,这种变体允许用户通过文本提示指导生成的过程,提供更精确的指引。 4. **InstructGPT**: 类似于 DALL-E 2,它是基于类似架构但针对特定指令处理优化的模型,能够在给定上下文中生成相关的高质量内容。 5. **GLIDE**: 由 Stability AI 公司开发的一个知名模型,它擅长结合文本提示创建令人信服的图像,并支持更复杂的设计和插图任务。 6. **Chaos:** Facebook 的另一个项目,它也利用了类似的技术,提供了更强的创意灵活性和多样性。 每种模型都有其特点和应用场景,用户可以根据具体需求选择最适合的模型。对于更详细的信息或最新进展,建议查阅最新的研究论文和官方文档。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值