AI画图Stable Diffusion web UI学习笔记(上)

本文记录讲解AI画图工具Stable Diffusion web UI的部分基本使用方法,以便进行学习。AI画图Stable Diffusion web UI学习笔记分为上、中、下三篇文章。

当下AI画图有两款很热门的工具,一款是SD(Stable diffusion https://stablediffusionweb.com/zh-cn Stability AI) ,另一款是MJ(Midjourney AI https://www.midjourney.com/)。

本文主要记录学习如何使用SD,关于如何使用MJ在我的另一篇文章 AI画图Midjourney使用笔记_midjourney upscale creative-优快云博客 进行记录讲解。

Stable Diffusion,是一种AI绘画生成工具。

Stable Diffusion web UI​允许用户通过浏览器图形界面来操作Stable Diffusion。

我们可以将Stable Diffusion web UI部署在本地电脑上,随时随地进行AI绘画。

一、Stable Diffusion web UI安装配置

Stable Diffusion web UI的安装程序在 GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI 进行下载。

a48e6cc42ccf4bd5a02294c2680dcf5e.png

该文档上给出了在Windows和Linux操作系统上的安装方法,按照方法进行安装部署。

本文介绍另一种安装方式,来自B站的UP主秋葉aaaki的绘世整合包。

这种整合包打包了 Python、Git、CUDA 等环境,同时提供了国内镜像地址,能流畅的安装扩展功能。我们只需下载解压整合包就可直接启动运行,更适合新手。

【AI绘画】SD-Forge 整合包发布!支持 SD3.5、FLUX 模型,解压即用 一键启动 ☆更新 ☆汉化 秋叶整合包_哔哩哔哩_bilibili

从上述所给的夸克网盘下载,解压之后双击运行程序直接启动运行绘世界面。

5c239ba04aa5446ab5f34af767882bee.png

如果双击运行程序启动不起来,可以将运行程序名字改成英文,例如我改成了AAA,之后再双击运行程序启动绘世界面即可。

86f053ac633d423c855f7c84a1aa5cd3.png

启动运行绘世界面之后先别急着点击一键启动,先进行部分参数设置。

1、性能设置

(1)生成引擎

17367bbd1fa14b6a906ed4ddd0ebf7d4.png

在生成引擎中选择你的GPU,而不是CPU,例如我的GPU是N卡4060。

(2)显存优化

94ead0ace0e843e68c8f366dc149b338.png

根据你的显存大小来选择,有低显存(不足4G)、中等显存(4G以上)、仅SDXL中等显存(8G以上)、无优化(12GB以上)。选择低、中等的会延长图片生成时间以降低显存要求。

(3)Cross-Attention优化方案

fcdcf57669e345578cb61b4091fdd1a0.png

选择默认的选项:尝试使用xFormers(推荐)。

(4)计算精度设置

db646b6dd42c4dd0a6fa87fd47c19b52.png

将开启VAE模型半精度优化、数值溢出检查(nan-check)这两个选项关闭,降低出现错误图片或黑图的概率。

(5)使用共享内存、模型哈希计算

b1338838d98544959a499dacddd3b46d.png

关闭使用共享内存和模型哈希计算。

2、网络设置

(1)监听设置

22d4ef3f97ed46d986f0952e90a47092.png

进行监听设置可使远程访问电脑使用。

(2)启用API

5eed3dda922747889465fec0a554adb1.png

开启启用API可于PS等软件进行联动使用。

3、用户体验设置

d48536603b0246478f12d37cd2d86c8b.png

可开启启动完毕后自动打开浏览器选项。

4、疑难解答

9c08e90e997146d4a5342dc256e861af.png

如果启动时报错,可以使用疑难解答中的开始扫描,自动修复一些错误。

上述设置完毕之后,点击一键启动,即跳转浏览器来到了Stable Diffusion web UI界面,就可以操作AI绘画了。

二、Stable Diffusion web UI界面操作

当我们来到浏览器Stable Diffusion web UI界面之后,我们在界面上操作开始AI绘画。

85affcfce4a940c5ba272a308ff0c8d9.png

1、Stable Diffusion 模型

Stable Diffusion web UI界面左上角为Stable Diffusion模型和外挂VAE模型。

73af40714750419d8bfd130e2ea53052.png

(1)Stable Diffusion模型

主模型控制了AI绘图生成图片的风格、色彩和类型等等。选择不同的模型,生成不同的图片。

模型可以在启动器绘世界面模型管理中下载。

f10afee3786c4659892db78c9faaf328.png

也可以点击启动器绘世界面小工具中的模型站网站链接跳转之后挑选自己喜欢的模型下载。

e6df58a4ae4842d3b74214ccc1739920.png

同时推荐一个不错的模型网站,C站 https://civitai.com/models

下载好的模型放在 AI画图运行程序所在文件夹中的\models\Stable-diffusion 目录下,在生成图片中即可选用这个模型即可。

(2)外挂VAE模型

VAE模型是在主模型的基础,主要影响图片色彩的生成,有点类似于滤镜。

a9179cf4dd704bbcbd644aa920d4f83a.png

在使用过程中建议选择vae-ft-mse-840000-ema-pruned.safetensors这个模型。

同时,在模型网站如果发现自己喜欢的VAE模型后,将其下载下来,放在 AI画图运行程序所在文件夹中的\models\VAE 目录下,在生成图片中即可选用这个模型即可。

2、CLIP 终止层数

CLIP 终止层数可以理解为数值越高,AI绘图对提示词内容的理解自由度越高。

a4f8f1d1301d4bd8841225b7bedf70d4.png

一般数值建议设置为1或2。

3、基础功能扩展区及提示词功能

这个区域包含了Stable Diffusion web UI中的默认功能和扩展功能。

e89c856000c94035bbb21bea3da93cd4.png

如果选择文生图,下面出现正面提示词和反向提示词两个框。

(1)提示词

想要出现在生成图片的东西,用提示词描述,用提示词告诉AI你想生成什么图片。

写提示词时每个词、短句用逗号隔开。

写提示词时尽量写短句而不是短词。

写提示词时重要的提示词写在前面。

提示词默认权重是1,低于1为减弱,高于1为加强。例如:(sunlight:1.1)、((simple background))。

提示词混合用法:AND、|、from:to:when、to:when、from::when。例如:red AND blue hair、[red:blue:0.3]。

最后,正向提示词有个通用的模板可套在你的提示词上:

masterpiece,high quality,highres,offical art,beautiful and aesthetic,

(2)反向词

就是不想要出现在生成图片的东西,用反向提示词描述。

你自己如果有哪些东西要不出现在生成图片之中,在就反向词中写上。

除此之外,如果你自己没什么额外的要求,反向词有个通用的模板:

nsfw,sketches,
(worst quality:2),(low quality:2),(normal quality:2),((monochrome)),((grayscale)),
facing away,looking away,
text,error,extra digit,fewer digits,cropped,jpeg artifacts,signature,watermark,username,blurry,
skin spots,acnes,skin blemishes,bad anatomy,fat,bad feet,cropped,poorly drawn hands,poorly drawn face,mutation,deformed,
tilted head,bad anatomy,bad hands,extra fingers,fewer digits,extra limbs,extra arms,extra legs,malformed limbs,fused fingers,
too many fingers,long neck,cross-eyed,mutated hands,bad body,bad proportions,gross proportions,text,error,missing fingers,
missing arms,missing legs,extra digit,extra arms,extra leg,extra foot,missing fingers,mole:1.3

(3)其他功能如图生图、后期处理等

这块内容放到 AI画图Stable Diffusion web UI学习笔记(中)这篇文章进行记录讲解。

4、图片生成设置区

这个区域用于设置Stable Diffusion web UI生成图片的参数。

eb4703bdcb414899b8c4960d87846e3d.png

(1)采样方法 (Sampler)

不同的采样方法有着不同的采样算法,配合模型在生成图片效果、是否收敛和速度上会有所区别。

推荐使用Euler a、Euler和DPM++ 2M这三个。其中选用DPM++ 2M时调度类型要选Karras。

(2)迭代步数 (Steps)

迭代步数可以理解为去噪多少次,可选的数值范围为1至150,迭代步数数值越低,图片生成的效果越差。

迭代步数的选择通常与采样方法相关。

如果采样方法选择了Euler a、Euler和DPM++ 2M这三个,建议迭代步数选择30至40步。

(3)高分辨率修复 (Hires. fix)

通过放大算法将当前生成图像放大,之后进行内容修复重新绘制。

316efd7371484f55aef5ed13bda15188.png

高分辨率修复一般用于对人脸进行修复和添加环境细节。

放大算法:如果你是画二次元,推荐使用R-ESRGAN 4x + anime6B,如果你是画三次元、写实风格,推荐使用R-ESRGAN 4x。4x-UltraSharp在动漫和写实风格都表现出色,推荐使用,但要去模型网站上下载。

高分迭代步数:设置为0则表示与迭代步数保持一致,设置为15则是保底如效果好无需再设置高。

重绘幅度:设置0.1—0.4为基本保持画面结构,细节调整逐步增加;设置0.4—0.8为画面大修,但还会参照之前的构图;设置0.8以上就重绘的和原图没关联了。

放大倍数:要放大几倍就设置几倍,视情况而定。一般推荐放大2倍。

(4)Refiner

进行细节修复和模型融合。

f0c3bf69990c42e196b4707226a0e9e7.png

模型:选择需要融合的模型。

切换时机:选择模型融合的时机,按百分比进度来调,越靠后融合越像融合的模型。

(5)尺寸

尺寸控制图片大小,设置想要的宽度和高度。

05e880b8201848e18b490c9269cbb381.png

一开始不要直接生成大图,不要宽度和高度设置的很高。

Stable Diffusion web UI默认的宽度和高度是512*512,推荐设置的宽度和高度为512*768、768*512。

对于设置批次、单批数量,生成图片数量=生成批次*每批数量。若要生成多张图片,推荐调高生成批次即可。

(6)提示词引导系数和随机数种子

49467ded074b48c49ac39d26400d73ed.png

提示词引导系数理解为数值设置的越高生成图片越受提示词影响。

提示词引导系数推荐设置在5—9之间,如果发现生成图片崩了就要调小提示词引导系数。

随机种子理解为在提示词和其它参数设置一样的情况下,随机数种子决定了生成图片的结果。

随机种子设置为-1是随机值。生成的图片确定之后,可锁住随机种子,然后调整参数微调画面。

5、嵌入式(T.I.Embedding)区

这个是用来选择Embedding模型的。

4635eba3ceac4b28a1c15111f8628110.png

又名textual inversion。

Embedding模型可以在启动器绘世界面模型管理中下载,也可在模型网站里下载。

下载之后放在 AI画图运行程序所在文件夹中的\embeddings 目录下,在生成图片中即可选用这个模型即可。

Embedding模型用在反向词的用法较多。每次写一大堆反向词毕竟也麻烦,有人专门做了个负面词模型,在写反向词的时候选用上。

ef50289353bb49f183f679c3f76c029b.png

例如我使用easynegative这个模型,在反向词中有easynegative。

6、超网络(Hypernetwork)区

这个是用来选择Hypernetwork模型的。

但Hypernetwork模型基本上不用了,如果要用的话也是一样,可以在启动器绘世界面模型管理中下载,也可在模型网站里下载。

下载之后放在 AI画图运行程序所在文件夹中的\models\Hypernetwork 目录下,在生成图片中即可选用这个模型即可。

7、Lora

这个是用来选择Lora模型的。

965456cd98614505a6dc5cc5c2b9912a.png

Lora模型是图像生成微调模型,可在原有大模型基础上进行调整。

Embedding模型可以在启动器绘世界面模型管理中下载,也可在模型网站里下载。

下载之后放在 AI画图运行程序所在文件夹中的\models\Lora 目录下,在生成图片中即可选用这个模型即可。

Lora模型权重可正可负。

8、右边生成便捷区域

33653b797a604f5088fe93554bde3163.png

在橘色生成按钮处可以鼠标右键选择无限生成或停止无限生成,方便挂机自动生成图片。

点击蓝色下斜的箭头可自动读取上一张图片参数。

点击第二个白色框按钮用于从其他地方复制别人生成的图片的参数粘贴上去,比如在C站看到一张别人生成的图片,可复制粘贴生成的参数,在自己的Stable Diffusion web UI生成图片。

点击第三个垃圾桶图标按钮可清空提示词内容。

点击第四个白板图标可保存当前绘画为预设样式。

同时,下面这个横条可选择自己保存的预设样式,便于生成。

9、脚本

脚本里最有用的是Prompt matrix和X/Y/Z plot。

5b9ba234864548a6b0a96925bfc95ee8.png

Prompt matrix能用于比较写的提示词。

X/Y/Z plot能用于各种维度的测试,对模型、设置参数进行比较。

三、Stable Diffusion web UI与极虎漫剪联动

极虎漫剪是用于对小说进行AI配图视频创作。如果你写好了一段小说文字,可以使用极虎漫剪进行AI配图,并配上听书语音,就做成了一个小说推文视频。

首先从极虎漫剪官网 阿拉丁奇点科技 下载安装包进行安装。

安装完之后先要启动Stable Diffusion web UI,之后再启动极虎漫剪,确保Stable Diffusion web UI在启动中才可以使用极虎漫剪。

30531df842ea4030a2494a8c3228b004.png

在注册极虎漫剪中如果要输入邀请码请输入 qN6ZrX

在开始创作视频前,需要先点击通用设置进行参数设置。

5dca3e26ca52421084c14d26f25bd8c7.png

设置完相关参数后返回点击开始创作即可创作。

1、故事分镜

故事分镜需使用极虎漫剪规定格式的脚本文件进行导入。d78a66ca4d4f4d02b0d6a04ae06d4ca4.png

导入之后还可进行内容调整,点击设置角色还可进行角色调整。

7b8f816cf2e249a9bd004c461193bd64.png

调整满意后点击下一步。

2、批量绘图

这一步开始为故事分镜内容进行绘图。点击开始绘图等待生成图片。

29e3132f2548448e81ef514b6d751657.png

如果对图片不满意,还可以进行重新绘制。

3、视频生成

这一步进行视频生成。

4e2754d8f5fb4531bad6b83335112048.png

进行配音设置和字幕设置,之后合成视频即可生成一个小说推文视频。

也可以转成剪映草稿进行再次剪辑。

9f7eb746d0ec413f9d326c29d8cf6b1d.png

之后跳转打开剪映进行编辑剪辑即可。


以上便是AI画图Stable Diffusion web UI部分的学习记录讲解,剩下的内容请见 AI画图Stable Diffusion web UI学习笔记(中)和 AI画图Stable Diffusion web UI学习笔记(下)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值