关于Stable Diffusion 3.5,这里有你需要知道的一切:免费可商用,和Flux比谁强? | SD3.5使用教程,含ComfyUI工作流与整合包

Stable Diffusion 3.5 重磅登场,带来诸多惊喜!它最大的亮点之一便是免费可商用,这对于创作者和商业项目来说极具吸引力。
在与 Flux 的比较中,各有千秋。Stable Diffusion 3.5 凭借其成熟的技术体系,在图像生成质量上表现卓越。它能够根据输入的描述精准地生成细腻、逼真的图像,色彩还原度高,细节丰富。

在这里插入图片描述

本文不仅深入探讨其特性,还为您呈上详细的使用教程。通过 ComfyUI 工作流与整合包,即使是新手也能快速上手。从参数设置到模型导入,一步步引导您充分发挥 Stable Diffusion 3.5 的强大功能。无论是艺术创作、广告设计还是影视特效等领域,了解和掌握 Stable Diffusion 3.5 都将为您开启全新的创作之门,助力您在数字创作的世界里游刃有余,收获更多令人惊艳的成果。

目前SD3.5适配度最高的还是ComfyUI,还是推荐大家先把ComfyUI先下载好。

显卡方面推荐N卡,如果打算用Large的话最好是24GB以上的显存、Medium最少16GB、量化版Medium至少12GB。

而内存需求如果用原版T5文本编码器的话需要64GB,而量化版T5文本编码器则是至少32GB。

图片来源:Nenly同学

当然如果没能达到上述需求的配置也能运行模型,但可能生成速度会很慢,也可能爆显存导致系统报错等问题。如果以上配置需求达标的话就可以进行本地部署,如果不达标的话我会比较推荐进行云端部署“在线”的ComfyUI。

本地部署的话可以看我之前的这篇笔记:什么!还有高手?(AI绘画:ComfyUI的基本安装和使用)

在昨天的笔记中下载好SD3.5基础模型本体之后,将其放在这个路径下方:

ComfyUI(根目录)/models/checkpoints

下载地址:https://huggingface.co/collections/stabilityai/stable-diffusion-35-671785cca799084f71fa2838

除了基础模型本体以外还需要下载文本编码器:

https://huggingface.co/stabilityai/stable-diffusion-3-medium/tree/main/text_encoders

文件放置路径在这里:

**ComfyUI(根目录)/models/clip
**

不过我这里要提一嘴,因为模型都是16GB起步需要下载的时间比较久,如果显存在8-16GB之间的小伙伴最好先用Medium模型试试,24GB的小伙伴就可以都下载了。

在准备好了这些之后启动ComfyUI,在网盘链接中也有工作流的下载,直接将工作流拖拽到ComfyUI中。

在这里插入图片描述

这里简单解析一下Large工作流的用法:

只需要四步操作:

第一步在最左侧的模型加载板块选择模型和CLIP

如果没有更改默认名称的话,现在是处于默认选中了的状态,保守起见还是手动再选择一次确保主要模型是sd3.5_large.safetensors

第二步,在右侧的提示词把板块用准确的语言描述想要生成的内容

这里不太需要太多的修辞用自然语言即可,我是懒得写直接先抄一段提示词试试。

下面还有一个用于输入负面提示词的框,但是新版本的ComfyUI不需要专门输入一些诸如worst quality、ugly之类的

第三步,在尺寸板块中输入生成图像的尺寸。

推荐输入的生成像素在100万像素左右,这里是尺寸参考:

图片来源:Nenly同学

然后就可以点击生成了,等一会会在最右侧的预览图像窗口中生成图像:

在采样的地方一般维持官方给的默认参数,如果要自己尝试的话可以更改采样器但是不要碰调度器

在上方还有一些辅助参数,一般不需要更改

这里有个ModelSamplingSD(模型的采样偏移数值)是一个用于稳定高分辨率不下生成效果的因素。

其他的节点则是在利用负面条件清零机制(Conditioning Zero Out)影响负面提示词的作用,通过将清零后的条件作用在特定时间步数内(除去开头10%的其他步数)可以实现对图像生成的精细控制,同时避免它们影响过渡生成。

在掌握了简单的Large模型生成步骤之后,其他的两个生成流程其实是大差不差的,这个Large Turbo相当于是一个加速模型,生成的时间只需要Large模型的十分之一。

其实现加速的方式是缩短了采样所需的步数,整个流程的步骤和Large的一致,唯一不同的是采样参数里的步数。

常规模型需要20步以上来完成一张图片的生成,这里只需要4步,与此同时对应的CFG数值需要降低到1。

生成速度确实很快,不过在同一提示词下,原版Large模型的生成效果是明显要优于Turbo的。

不过要知道一点,Turbo是生成速度更快,但是比起原版的Large并不会降低配置占有,这个时候就是用到Medium模型的时候了。

Medium的参数量只有Large模型的30%左右,其工作流大部分地方和Large一样,不一样的只有CFG、零化的步骤分配。

用Medium生成速度会非常快且占用显存很低

而实际生成效果呢?

好像还可以,不过根据一些原视频评论区的小伙伴和UP主有提到Medium的语义细节的实现上要比Large马虎一些。

但是转念一想这个Medium的训练量是和SDXL一个级别的,再加上低配置需求带来效率上的提升,这样一看Medium其实还不错。

Medium很适合去做各种风格类型的尝试,反复的快速抽卡能够让我更快得到想要的成品。

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

对于0基础小白入门:

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!

零基础AI绘画学习资源介绍

👉stable diffusion新手0基础入门PDF👈

(全套教程文末领取哈)
在这里插入图片描述

👉AI绘画必备工具👈

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉AI绘画基础+速成+进阶使用教程👈

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

👉12000+AI关键词大合集👈

在这里插入图片描述

这份完整版的AI绘画全套学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
### Stable Diffusion 3.5 安装指南使用教程 #### 一、简介 Stable Diffusion 3.5 是一款强大的 AI 文本生成图像模型,现已免费开源并提供详细的本地安装在线使用教程[^1]。 #### 二、下载地址 对于希望部署于本地环境的用户而言,可以前往 Hugging Face 平台获取 `Stable Diffusion 3.5 Large` 版本的下载链接:[Hugging Face](https://huggingface.co/stabilityai/stable-diffusion-3.5-large)。 #### 三、依赖项准备 在开始之前,请确认已准备好如下工具链: - Python (建议版本 >= 3.8) - PyTorch 及其对应的 CUDA 扩展库(如果计划利用 GPU 加速) - Git 工具用于克隆项目仓库 #### 四、快速启动命令行界面(CLI) 为了简化初次使用者的学习曲线,官方提供了简易版 CLI 接口供测试之用。通过简单的几条指令即可完成基本配置图片创作尝试: ```bash git clone https://github.com/Stability-AI/generative-models.git cd generative-models pip install -r requirements.txt python scripts/txt2img.py \ --plms \ --outdir outputs/ ``` 上述脚本会基于给定提示语(`prompt`)自动生成一张描述为“专业的猫咪照片”的艺术作品,并保存至指定目录下(outputs/)。 #### 五、WebUI图形化操作面板 除了命令行方式外,更推荐新手采用 Web 用户接口(Web UI),它允许拖拽文件上传以及直观调整参数设置等功能特性。具体搭建流程可参照官方文档说明页面中的指导步骤进行。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值