自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(329)
  • 资源 (1)
  • 收藏
  • 关注

原创 ComfyUI绘画|提示词反推工作流,实现自动化书写提示词

今天先分享到这里~

2024-12-05 06:38:42 787

原创 ComfyUI绘画|必备工作流和模型网站,收藏起来~

今天先分享到这里~

2024-12-05 06:36:47 444

原创 ComfyUI绘画|图生图:ControlNet 线稿应用

今天先分享到这里~

2024-12-05 06:35:32 279

原创 ComfyUI绘画|图生图工作流实用技巧

今天先分享到这里~

2024-11-30 16:51:05 337

原创 ComfyUI绘画|图生图工作流搭建

今天先分享到这里~

2024-11-30 16:48:17 184

原创 ComfyUI绘画|在 ComfyUI 中实现中文提示词书写

想要实现中文提示词填写,最常用做法是添加节点。双击空白处,搜索🔍关键词translate看看是否有以下的节点:如果没有,则需要到 「管理器-节点管理」中搜索🔍AlePet。

2024-11-22 06:36:44 1720

原创 ComfyUI绘画|提示词书写与权重设置技巧

提示词写得越详细,AI 生成的图片就会越符合你的预期,但请注意,提示词并非越多越好,因为 SD 提示词的识别是有上限的,尽量控制在,超上限的提示词会影响识别。

2024-11-22 06:30:05 1500

原创 ComfyUI绘画|文生图基础工作流搭建

跟 SD-WebUI 一样,ComfyUI 也需要有 正向/反向 提示词,我们可以复制粘贴再添加一个。可以理解为多个关键词打包训练出来的一个小模型,包含了很多常见的负面关键词。尾部可以拉出来多条连接线,连接多个节点,而首部只能连接一个节点。如果做图生图,值越高,生成的图片与原图越不相近,相反则越相近。在 ComfyUI 中,想让种子完全随机的话,需要设置为。例如 大模型、LoRA、VAE、ControlNet,现在已经有了一个可以选择大模型的「加载器」,数值越高,关键词的相关性越高,建议设置为。

2024-11-21 06:36:41 1175

原创 ComfyUI绘画|Stable Diffusion原理的简易讲解

Stable Diffusion 的工作原理,可以用一下的流程图来理解:今天先分享到这里~ComfyUI绘画|关于 ComfyUI 的学习建议。

2024-11-21 06:35:46 503

原创 ComfyUI绘画|ComfyUI 本地部署(Windows系统)

关于 ComfyUI 的部署,推荐使用的搭配组合。

2024-11-20 22:02:31 857

原创 ComfyUI绘画|SD WebUI 与 SD ComfyUI 的区别

WebUI 和 ComfyUI 都是基于 Stable Diffusion 的程序,只是。

2024-11-20 21:59:22 1105

原创 我的 WebUI 使用体验总结,以及后续学习计划

截止到上周,SD绘画的合集,已更新84篇暂告一段落,后续计划更新 ComfyUI绘画,或者是AI智能体 应用。简单总结下过去3个月,使用 WebUI绘画的体验。

2024-10-16 08:50:04 281

原创 Stable Diffusion绘画 | 签名、字体、Logo设计

目前,只使用了一个电商的LoRA来生成上方的图片,我们还可以继续添加符合该场景调性的LoRA进行互相搭配。点击「生成」,就能得到具有中国特色的水彩画的。第1步,使用 PS(小白推荐使用。

2024-10-09 06:44:12 909

原创 Stable Diffusion绘画 | 人物、场景、3D转手绘线稿

第1步,输入线稿生成必备的提示词:第2步,开启 ControlNet,加载需要转绘的图片,控制类型选择「SoftEdge」,预处理器选择「softedge_hed」:第3步,添加一个线稿 LoRA:生成图片效果如下:去除上色效果:monochrome轮廓边缘线条变细:第1步,开启 ControlNet,控制类型选择「Lineart」:换一个建筑专用的线稿Lora,权重设置为0.6:生成图片效果如下:对于 3D物体,ControlNet 的控制类型,建议选择「Canny」:叠加2个LoRA:

2024-10-09 06:38:25 576

原创 Stable Diffusion绘画 | AI 图片智能扩充

第一轮扩充得到的图片,两边的扩充,接缝明显,而且色调差异大,非常不自然。来到「文生图」页面,输入固定的起手式提示词。,选择一个与加载图片相对一致的大模型。现在先进行宽度扩充,扩充为。

2024-10-07 10:00:33 778

原创 Stable Diffusion绘画 | IP角色多视图生成技巧

在游戏设计、小说推文、角色设计里面,很多场景都运用到IP角色的多视图。

2024-10-07 09:56:58 612

原创 Stable Diffusion绘画 | 如何做到不同动作表情,人物角色保持一致性(下篇)

在 人物角色保持一致性(上篇)中,我们已经得到了自己创造的角色的各个角度头像图片:从中选择一个符合自己需求的角度,截图保存,例如下图:进入到「图生图」页面,把上一篇中生成图片的正反向提示词复制过来:在下方加载刚才得到的截图:开启「ADetailer」脸部修复模型:在「ADetailer」加入提示词 ,重绘幅度设置为 ,点击「生成」:得到图片如下:优化调整的方向有2点:在控制表情时,我们需要在权重间找到一个平衡点,过低会不明显,过高则会容易导致人物外貌走样。返回「文生图」页面,保持人物生成的提示词,开启 Co

2024-10-07 09:55:54 842

原创 Stable Diffusion绘画 | 如何做到不同动作表情,人物角色保持一致性(上篇)

由于 SD 具有强大的可控性,在固定人物角色方面,SD 是远超 MJ 的,其中最好用,也是最优先的方法就是训练一个自己专属的角色模型,例如之前使用秋叶训练器得到的 LoRA模型。

2024-10-05 09:25:44 1096

原创 Stable Diffusion绘画 | 插件-Deforum:场景穿越视频

在「关键帧」下方的「运动」模块,只需要设置。:在「关键帧」模块,调整。由于文件过大,无法上传。

2024-10-05 09:24:50 504

原创 Stable Diffusion绘画 | 插件-Deforum:商业LOGO广告视频

在「关键帧」下方的「运动」模块,只需要设置。

2024-10-04 09:34:14 407

原创 Stable Diffusion绘画 | 插件-Deforum:动态视频生成(终篇)

Deforum中其他模块主要是服务于上传视频的,而视频转绘有其他效果更好的插件。

2024-10-04 09:32:04 1284 2

原创 Stable Diffusion绘画 | 插件-Deforum:动态视频生成(中篇)

本篇文章重点讲解参数最多的 关键帧 模块。

2024-10-04 09:27:37 1783

原创 Stable Diffusion绘画 | 插件-Deforum:动态视频生成(上篇)

Deforum与不太一样,是生成丝滑变化视频的,而Deforum的丝滑程度远远没有好。它是根据对比前面一帧的画面,然后不断生成新的相似图片,来组合成一个完整的视频。Deforum的优点在于可控性好,提示词的变化,镜头的运动方向,画面的变化程度,以及噪声加入的多少,甚至中途改变模型都可以控制。通过Deforum可以很清晰的制作瞬息全宇宙的动态视频效果。

2024-10-03 10:38:24 1526

原创 Stable Diffusion绘画 | AnimateDiff:用AI制作动画

使用插件,我们只需要按时间节点,输入不同的提示词,就可以非常轻松地生成一系列丝滑的动画。的底层技术框架,是由 上海人工智能实验室 & 香港中文大学 & 斯坦福大学 联合研发的,它能很好地结合 SD 的各种模型,以及配合 ControlNet 和 Upscale 来生成出可控的高清丝滑视频。

2024-10-03 10:31:20 566

原创 Stable Diffusion绘画 | 来训练属于自己的模型:LoRA模型验收

上面👆展示了15个模型的出图,其中我较为满意的(既能符合提示词,像霉霉,又能保持插画风格),只有03、06、07号模型。我们每次训练出来的模型,一般都会生成 20-30 个,至于哪个模型符合要求,较为理想呢?我想其中的原因是:随着训练轮次越多,AI已经把素材的特征完全学定型了。再更换其他的提示词,多试几轮,留下出满意的 LoRA 模型以后使用。我最终选择留下 06、07 两个模型,其他的都可以选择删掉。这个提示词了,而且越来越接近真人模型,缺少插画风格。因此,从10轮过后的模型,都可以直接删掉。

2024-10-03 10:29:10 967

原创 Stable Diffusion绘画 | 来训练属于自己的模型:秋叶训练器使用

花了不少时间搜索尝试,都没有找到解决上一篇文章遗留问题的解决方案,导致无法使用这个工具来完成炼丹,看不到炼丹效果。但考虑到,以后还是要训练自己的模型,于是决定放弃, 使用秋叶训练器。

2024-10-03 10:14:52 1101

原创 Stable Diffusion绘画 | 来训练属于自己的模型:炼丹启动

如果后续找到解决方案,也会分享给你。

2024-10-03 10:13:15 579

原创 Stable Diffusion绘画 | 来训练属于自己的模型:配置完成,炼丹启动

余弦退火重启,在余弦学习方法基础上定期重启,帮助AI逃脱学习平坦区域。:能降低显存占用,并略微加快训练速度,适合显卡配置不太好的电脑使用。:余弦学习率,一开始保持一个较高的学习率,然后逐渐降低学习率。:设定一个学习强度,让 AI 一直保持这个学习率来学习。:一开始预热期间学习率会增大,然后退回恒定的学习率不变。

2024-10-03 10:12:28 1070

原创 Stable Diffusion绘画 | 来训练属于自己的模型:炼丹参数调整--步数设置与计算

要想训练一个优质的模型,一定要认识和了解模型训练中,参数的作用和意义。整个模型训练的过程,参数并不是一成不变的,也没有固定的模板,当我们修改了模型训练里面的某个参数,很可能就需要连带其他一系列参数的配合调整,同时也需要根据训练时的数值反馈来做出合理的修改及调整。

2024-10-02 06:50:44 764

原创 Stable Diffusion绘画 | 来训练属于自己的模型:打标处理与优化

上一篇完成的打标工作,是为了获取提示词,让AI认识和学习图片的特征。因此,合适、恰当、无误的提示词,对最终模型效果是相当重要的。

2024-10-02 06:49:41 980

原创 Stable Diffusion绘画 | 来训练属于自己的模型:素材处理与打标篇

纵观整个模型训练流程,图片素材准备和打标环节占据的分量比重,绝对超过60%。上一篇分享了图片素材准备,这一篇,开始对准备好的图片素材进行处理了。

2024-09-30 06:35:50 714

原创 Stable Diffusion绘画 | 来训练属于自己的模型:素材准备篇

首先要说明的是,模型训练,需要显卡持续不间断地一致运行,快则0.5-1小时左右,慢的话可能需要跑上几小时,甚至是几天,原因跟显卡的配置和训练设置参数都有关系。模型训练与显卡配置:训练 LoRA模型:要求6GB显存及以上训练 Checkpoint:要求8GB显存及以上训练 SDXL模型:要求16GB显存及以上因此,从显卡配置角度来看,更推荐训练 LoRA模型,而且训练 LoRA模型 比其他的要快上很多。我们利用训练好的 LoRA模型,搭配合适的大模型,也能轻松实现各种定制的风格效果。

2024-09-30 06:32:12 1028

原创 Stable Diffusion绘画 | Checkpoint Merger 模型融合

选择融合模型时,一定要选择风格相互匹配的模型进行融合,不然生成出来的图片会比较奇怪。经过以上两个融合的示例,我们可以看到,想要快速得到一个融合的模型非常简单。但我想在它的基础上,融合一些二次元漫画的风格,出图的效果没那么写实。主要原因就是,我们下载的模型,作者训练时并没有加入VAE色调文件。在「模型A」与「模型B」中分别选择需要融合的模型。完成融合之后,就可以使用得到的模型来生成图片了。「融合算法」选择「加权和」

2024-09-28 11:53:56 870

原创 Stable Diffusion绘画 | 生成高清多细节图片的各个要素

DPM++ 2M 与 Restart 这两款采样器,在锁定种子的情况下,生成图片比较接近,但在锐度和清晰度方面, Restart 效果更好一些;若分辨率不足,例如人脸特写,则可能出现显示不完整的情况;相反,分辨率过高,则可能出现多头多手的情况(比较渗人)其中,Euler a 效果最朴素,而渲染时间最长的 DPM++ 2M 确实在人物表现方面非常亮眼;不同迭代部署对渲染时间和最终画面的影响是很大的,迭代步数越多,图片的细节越丰富。因此,因为选择 SDXL模型,将宽高调整为。因此,这一步迭代步数设置为。

2024-09-28 11:50:31 547

原创 Stable Diffusion绘画 | SDXL模型使用注意事项

SDXL 模型需要单独下载:https://huggingface.co/lllyasviel/sd_control_collection/tree/main。下载地址:https://huggingface.co/stabilityai/sdxl-vae/tree/main。SDXL 专用 VAE 文件:sdxl_vae.safetensors。SDXL模型的使用,对电脑配置要求更高,需要 8GB 以上显存的显卡。ControlNet 需要使用专门的 SDXL 模型。不能使用旧的 VAE文件。

2024-09-27 06:40:58 1698

原创 Stable Diffusion绘画 | SDXL模型的优缺点及模型推荐

SDXL] RongHua | 容华 | 国风大模型:https://civitai.com/models/125634?更强的提示词理解能力:更能听懂人话,无需输入高精度前缀词,输入更少的提示词。学习参数最多的模型:参数总量超过100亿,可对标 Midjourney。与旧 LoRA 不通用:必须与 SDXL 训练的 LoRA 搭配使用。对显卡要求更高:必须配备 8GB 以上的显卡,才能有更好的使用体验。SDXL 占用硬盘空间更多:大模型容量基本在 6GB 以上。SDXL 模型的缺点。

2024-09-27 06:39:56 575

原创 Stable Diffusion绘画 | 怎么用好Lora

PS:如果发现 LoRA模型 没有刷出来,一定要检查大模型是否选对,SDXL模型跟大部分的 LoRA模型不兼容,要换一个模型后再进行刷新!在正向提示词中,点击添加 LoRA,会自动把上一步填写的触发词填写进来;容量比 Checkpoint 大模型要小很多:一般是 200MB 以内。以哩布(https://www.liblib.art/)为例;例如,我将新下载的 LoRA模型 放置在。LoRA 指的是,微调扩散模型。训练速度快,显存8GB或以上即可。不能单独使用,需要搭配大模型。

2024-09-26 08:00:00 644

原创 Stable Diffusion绘画 | 插件-Addition Networks:单独控制LoRA

当 SD 使用到了进阶阶段,经常需要添加多个 LoRA 来生成图片,因此,提示词中难免会出现一系列的 LoRA 和相关触发词。原因就是,别人用了 Addition Networks 插件来单独加载 LoRA,这样 LoRA 就不在提示词中显示了,但很多时候,我们直接复制网上别人分享的完整提示词,会发现生成出来的效果不一样,这是怎么回事?所以,你复制过来的,实际上是缺少 LoRA 的提示词,出图自然就不一样了。

2024-09-26 06:40:33 688

原创 Stable Diffusion绘画 | 多个LoRA叠加使用的技巧

添加2个 LoRA 后,要适当调整2个 LoRA 的权重,例如我这里,将一个设置为0.4,另一个设置为0.6(要根据出图效果进行调整权重)。添加第1个LoRA 后的出图,没有将龙的整体形态展示出来,缺少一种巨龙在空中盘旋的感觉,同时,添加多个 LoRA 时,要注意每个 LoRA 的兼容性。中国龙的元素没有展示,并且龙的尾巴长在女孩的身上。而且需要选择跟整体画面画风搭配的 LoRA,添加 LoRA 时,并不是越多越好,没有中国风插画的效果。

2024-09-26 06:39:35 522

原创 Stable Diffusion绘画 | 模型推荐:如何判断模型的好坏

SD 大模型解决做得「到」的问题,再通过 Lora 和 ControlNet 等方法解决做得「对」的问题。一个好的大模型,首先第一直观印象就是看详情页里作者提供的出图效果,

2024-09-25 06:27:21 959

selenium 环境搭建.zip

基于 Python / Windows 环境的 selenium 自动化测试环境搭建,包含有chromedriver.exe,ChromeSetup.exe,geckodriver.exe,msedgedriver.exe,python-3.7.4-amd64.exe,selenium 环境搭建.pdf

2020-08-05

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除