今天讲的都是可以提高人工效率的方法,为此苦恼的小伙伴记得看完哦。
一、随机种子
可以理解为每个图画的唯一编码,当设置为-1时,图画随机生成,当遇见中意的图片时,复制下面的种子数值,填入随机种子框内,后续生成的图画基本都是一个样子。
**例如下图:
生成的这张图
seed为2843609712,觉得还不错,那么复制到随机种子框里,再次生成:
图画就是一模一样的,这时 你修改迭代步数或者尺寸等信息是不会对画面主要信息有影响的,例如下图:
为了对比,我让生成了两张图,我调整迭代步数到40后,种子固定,第一张图还是和原来的图画很相似。是不是方便多了。
二、差异随机种子以及差异强度
在随机种子后的方框勾选后,会出现差异随机种子选项以及差异强度选项,这两项和随机种子是配合使用的,作用是:将随机种子值的图和差异随机种子值的图按差异强度进行融合。
差异强度设0代表完全按随机种子值生成图;
差异强度设1代表完全按照差异随机种子值生成图;
从这里就能看出:差异强度就是和原图差异的强度的意思。(强行翻译
举个栗子:
随机种子数值固定,差异随机种子值为-1,差异强度为0,生成的图片如下:
接下来,将差异强度设为1,图片如下:
是不是就是刚才的第二张图呢,下面横线处是第二幅画的随机种子值。
那么设置为0.5会发生什么呢,拭目以待:
两幅图画融合,变成新的一幅画面了
这就是随机种子的妙用,理解了作用,就可以上手试试啦。
二、脚本详解
自带脚本在最下方,如图所示位置:
1、提示词矩阵
比如你想试几个提示词对画面的影响,就可以用这个脚本,
使用方法是:每个提示词之间用竖线分隔,就会生成对比图。
比如说,我给提示词中加入[簪子]=kanzashi、[珠子项链]=bead necklace进行对比,实际出图就是这样的:
这样很直观的进行对比,一眼就决定要用哪个提示词了,不用再删删减减 重复生成四次,再把四幅图放一起进行对比,太费时间了。这个功能就好用的很。
这俩额外选项暂时没用
宫格图边框(像素)就是指上面这种对比图之间的间隔,调高以后就会有明显间隔,方便对比。
**
**
2、从文本框或文件中载入提示词
这个就是字面意思了,如果你需要批量生成图片,那么用这种直接导入提示词功能比手动一个个复制快得多。SD是依据每一段提示词进行生成的,而且要求每个参数用–作为分隔。**
**
简单举个栗子:
–prompt"photo of iphone"
–prompt"photo of 1cat"
–prompt"photo of 1dog"
来看看生成的图片:
你就会发现SD一次性生成了三张图,依据的都是批量提示词的内容。
这个就很方便,可以提前制作好很多张图的参数,丢给电脑慢慢跑,咱就可以出门玩耍了,玩够了回来收图就行了,不用一直候着。
3、XYZ脚本
XYZ脚本生成的图片,大家肯定都见过,就算不清楚,我上张图 大家也都明白是什么了:
其实就是参数变化表
上图我是把X轴类型设为迭代步数,X轴值每个数字用英文逗号分割,写成1,10,20,30,40。当然也可以写区间1-20,默认是每+1步生成一张图片,耗费时间较长,这里用10步一区分生成图片。也可以按这个格式化写:
可以用加法1-40(+10)就相当于1,10,20,30,40,每10步生成一次;
也可以用减法:40-1(-10);
也可以用小数点:1-10(+0.5);
也可以规定范围内分多少个:1-10[5],方括号+数值意思就是分为1,3,5,7,10五个数值。
注意:生成批次生成数量均为1,因为是一张张生成图画,优点是对显卡要求低,缺点是耗时比较长。
如果想比较更多因素可以把Z轴也选上,
可以批量尝试哪个参数是最需要的。
保持随机种子值为-1不要勾,咱主要就是来对比区别的,如果每次都随机生成那就没可比性了。
另外两个选项完全没用,忽略它。
记得用完脚本之后 要选成“无”,不然下次还会自动调用脚本。
课后总结:
有了这几个脚本,你自己就可以方便的对比出各项提示词或者参数直接的对比效果,可以更高效的选取适合的提示词和参数,节省很多时间,也不用等着别人来教你了。
授人以鱼不如授人以渔,希望大家都能学会,每天进步一点点,持续下去,总会出人头地!
目前 ControlNet 已经更新到 1.1 版本,相较于 1.0 版本,ControlNet1.1 新增了更多的预处理器和模型,每种模型对应不同的采集方式,再对应不同的应用场景,每种应用场景又有不同的变现空间
我花了一周时间彻底把ControlNet1.1的14种模型研究了一遍,跑了一次全流程,终于将它完整下载好整理成网盘资源。
其总共11 个生产就绪模型、2 个实验模型和 1 个未完成模型,现在就分享给大家,点击下方卡片免费领取。
1. 线稿上色
**方法:**通过 ControlNet 边缘检测模型或线稿模型提取线稿(可提取参考图片线稿,或者手绘线稿),再根据提示词和风格模型对图像进行着色和风格化。
**应用模型:**Canny、SoftEdge、Lineart。
Canny 示例:(保留结构,再进行着色和风格化)
2. 涂鸦成图
方法:通过 ControlNet 的 Scribble 模型提取涂鸦图(可提取参考图涂鸦,或者手绘涂鸦图),再根据提示词和风格模型对图像进行着色和风格化。
应用模型:Scribble。
Scribble 比 Canny、SoftEdge 和 Lineart 的自由发挥度要更高,也可以用于对手绘稿进行着色和风格处理。Scribble 的预处理器有三种模式:Scribble_hed,Scribble_pidinet,Scribble_Xdog,对比如下,可以看到 Scribble_Xdog 的处理细节更为丰富:
Scribble 参考图提取示例(保留大致结构,再进行着色和风格化):
3. 建筑/室内设计
**方法:**通过 ControlNet 的 MLSD 模型提取建筑的线条结构和几何形状,构建出建筑线框(可提取参考图线条,或者手绘线条),再配合提示词和建筑/室内设计风格模型来生成图像。
**应用模型:**MLSD。
MLSD 示例:(毛坯变精装)
这份完整版的ControlNet 1.1模型我已经打包好,需要的点击下方插件,即可前往免费领取!
4. 颜色控制画面
**方法:**通过 ControlNet 的 Segmentation 语义分割模型,标注画面中的不同区块颜色和结构(不同颜色代表不同类型对象),从而控制画面的构图和内容。
**应用模型:**Seg。
Seg 示例:(提取参考图内容和结构,再进行着色和风格化)
如果还想在车前面加一个人,只需在 Seg 预处理图上对应人物色值,添加人物色块再生成图像即可。
5. 背景替换
**方法:**在 img2img 图生图模式中,通过 ControlNet 的 Depth_leres 模型中的 remove background 功能移除背景,再通过提示词更换想要的背景。
**应用模型:**Depth,预处理器 Depth_leres。
**要点:**如果想要比较完美的替换背景,可以在图生图的 Inpaint 模式中,对需要保留的图片内容添加蒙版,remove background 值可以设置在 70-80%。
Depth_leres 示例:(将原图背景替换为办公室背景)
6. 图片指令
**方法:**通过 ControlNet 的 Pix2Pix 模型(ip2p),可以对图片进行指令式变换。
应用模型:ip2p,预处理器选择 none。
**要点:**采用指令式提示词(make Y into X),如下图示例中的 make it snow,让非洲草原下雪。
Pix2Pix 示例:(让非洲草原下雪)
7. 风格迁移
**方法:**通过 ControlNet 的 Shuffle 模型提取出参考图的风格,再配合提示词将风格迁移到生成图上。
**应用模型:**Shuffle。
Shuffle 示例:(根据魔兽道具风格,重新生成一个宝箱道具)
8. 色彩继承
**方法:**通过 ControlNet 的 t2iaColor 模型提取出参考图的色彩分布情况,再配合提示词和风格模型将色彩应用到生成图上。
**应用模型:**Color。
Color 示例:(把参考图色彩分布应用到生成图上)
这份完整版的ControlNet 1.1模型我已经打包好,需要的点击下方插件,即可前往免费领取!
这里就简单说几种应用:
1. 人物和背景分别控制
2. 三维重建
3. 更精准的图片风格化
4. 更精准的图片局部重绘
以上就是本教程的全部内容了,重点介绍了controlnet模型功能实用,当然还有一些小众的模型在本次教程中没有出现,目前controlnet模型确实还挺多的,所以重点放在了官方发布的几个模型上。
同时大家可能都想学习AI绘画技术,也想通过这项技能真正赚到钱,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学,因为自身做副业需要,我这边整理了全套的Stable Diffusion入门知识点资料,大家有需要可以直接点击下边卡片获取,希望能够真正帮助到大家。