- 博客(44)
- 收藏
- 关注
原创 ComflyUI零基础学习
第一步:进入到GITHUB官网进行下载。第二步:下载完成后,在电脑上进行解压;选择一块空间大的硬盘进行解压。第三步:解压完成后,得到以下文件。第四步:一般都是使用gpu运行的,所以这里是点击GPU运行。第五步:运行出现以下界面说明是运行成功的。
2024-10-24 00:02:32
611
原创 Midjourney零基础学习
## Midjourney的出图方式下图所示为提示词构成模板,注明了完整的提示词构成所需要具备的要素,以及这些要素在提示词构成中的前后组合顺序。提示词构成中的关键词条理清晰,有助于 Midjourney Bot 机器人进行读取,可以提高生成图像的准确率。
2024-10-20 09:45:00
588
原创 Midjourney零基础学习
下图所示为提示词构成模板,注明了完整的提示词构成所需要具备的要素,以及这些要素在提示词构成中的前后组合顺序。提示词构成中的关键词条理清晰,有助于 Midjourney Bot 机器人进行读取,可以提高生成图像的准确率。
2024-10-19 20:30:41
619
原创 Midjourney零基础学习
风格是指作品整体呈现出的独特面貌。风格按照不同的标准可以划分为许多种,具体如下。视角是指摄像机拍摄时所采用的拍摄角度,根据不同的角度,可以分为 平视、仰视、俯视、顶视、鸟瞰、微观等视角。不同的视角有着不同的作用和效果。
2024-10-17 10:00:00
525
原创 Midjourney零基础学习
在指令框中输入 “/” ,可以调出不同的指令,下图所示这些带 “/” 的就是指令。指令分为Midjourney Bot 指令和内置指令两种,内置指令一般不使用。在Midjourney Bot 指令中,最常用的指令有 “/imagine”、“/info”、“/settings”、“/stealth”、“/subscribe”、“/blend”、“/show”、“/describe” 等。
2024-10-16 22:38:22
2295
原创 Midjourney零基础学习
无缝图案常用于服饰、墙布、瓷砖、窗帘、贴纸等。在3D制作中,无缝图案也是纹理贴图的必要素材。调用的方式在参数位置输入 “--tile” ;无缝图案必须使用正方形比例(即默认比例)才能获得最佳效果。如下图所示,在指令框中输入提示词 “cute cat --tile --v 5”,按 Enter 键 确认,一堆可爱的小猫咪立刻涌现在眼前。
2024-10-15 09:30:00
371
原创 Midjourney零基础学习
噪点:也被称为种子。随着噪点的增加,图像逐渐成形。在Midjourney中,生成的每一张图片都拥有一个噪点编号。为了使前后创建的图像相似或有所关联的,需要调用相同的噪点编号去匹配。可以使用 “--seed” 或者“--same seed” 参数来调用。为了使图像尽量相似,除了噪点编号应该相同外,提示词也应该类似。
2024-10-14 22:38:30
673
原创 Midjourney零基础学习
质量:顾名思义就是生成图像的画面细节和品质。 Midjourney中默认的质量参数是1,参数范围是 0.25 ~ 5(0.25的偶倍数)。参数越小,生成的图像时间越短,质量越低,想要获得更多的质量细节,耗费的生成时间更多。质量参数的高低和尺寸没有关系,大小尺寸都是相同的参数设置。
2024-10-13 08:45:00
792
原创 Midjourney零基础学习
V5版本支持的最大尺寸为1024像素*1024像素,而V4版本支持的最大尺寸为2048像素*2048像素;这里的尺寸数值代表的是高或宽可以达到的尺寸上限。从这里可以看出V5版本并不是各方面都比V4强。
2024-10-12 10:00:00
754
原创 Midjourney零基础学习
比例是指画面的宽高比。在Midjourney中,默认的画面宽高比为1:1。如果要想获得竖版画幅或者电影般的横版画幅;这就需要调用比例参数。调用参数是 "--aspect" 或 "--ar"。
2024-10-11 09:30:00
564
原创 Midjourney零基础学习
默认模式(Default Style):在使用Niji V5的时候就已经添加默认,调用几种模式时,表现力模式用 “-- style expressive”,可爱模式用 “–style cute”,风景模式用"–style scenic"。下图所示为Niji V5的可爱模式下生成的一些画面。下面介绍Niji V5的4种模式,如上图所示分别是默认模式(Default Style)、表现力模式(Expressive Style)、可爱模式(Cute Style)、风景模式(Scenic Style)。
2024-10-10 17:01:54
2431
原创 Midjourney零基础学习
V5.1版本是在V5版本基础上的一次更新,根据官方的介绍:V5.1版本有更高的一致性,对文本提示词的识别更加准确,减少不需要的边框和文本文字,提高清晰度。V4 和 V5版本生成了质量完全不同的图像,可以看到V4版本生成的图像明显还有很多"手绘"拼贴的痕迹,而V5版本生成的图像效果已经非常自然,材质的质感也很真实。使用V5版本的时候需要调用对应的参数 —— " --version 5" 或者 " --v 5",注意字母和数字之间一定要 空一格 ,否则系统会报错,出现无法识别的结果。
2024-10-10 16:14:20
1016
原创 Midjourney零基础学习
随着AI技术的成熟和普及,催生了一个新的职业 “提示词工程师”。在AI中,一张图像的好坏,一个问题能否得到解决,结果是否直观,都取决于提示词。上图所示为指令框中提示词的构成方式:红色框是图片提示词,黄色框是文字提示词,蓝色框是参数提示词。
2024-10-10 15:35:07
736
原创 Midjourney零基础学习
Midjourney是一个社区聊天服务器,所以它的界面很像聊天软件的界面。下面主要讲解最关键的几个部分(根据操作顺序,生成的作品主要使用4、2、5区域的功能)(1)竖栏:包含各种频道和各种身份组。从上至下依次是信息、支持、新人房间、闲谈、社区论坛、陈列窗等分组。其中最常用的就是新人房间和闲谈频道。(2)显示区:显示生成的作品。由于是 “聊天” 形式,因此可以看到很多用户生成的作品。(3)用户列表:显示的是在线用户,可以和他们聊天。
2024-10-07 14:00:49
736
原创 Midjourney零基础学习
AI艺术指的是使用AI技术创作的艺术作品,包括AI诗歌、AI音乐、AI绘画等多种艺术表现形式;AI艺术可以被视为计算机程序与人类合作创作作品;除了Midjourney,比较流行的AI图像生成工具还有Stable Diffusion、Dall-E、Imagen、VQGAN+CLIP、Dream、Disco Diffusion等。
2024-10-06 23:08:58
1074
1
原创 Stable Diffusion零基础学习
Stable Diffusion学习笔记TOP20SD的基础知识笔记就记录到这了,感谢大家的关注!后续会更新Midjourney的知识笔记,希望能够帮到大家!!!
2024-10-05 22:02:05
196
原创 Stable Diffusion零基础学习
利用ControlNet在文生图还原整张图的细节,但不保留它的颜色;以下张图片为例。 【还原以下图像的构图,不保留颜色】:需要输入构图信息(深度提取环境层次和线稿提取图像构图),不输入其他色彩信息。
2024-10-04 22:11:48
733
原创 Stable Diffusion零基础学习
(1)Tile分块的专属参数 —— 向下采样率【Down Sampling Rate】:意思是向下缩放取样系数,系数越大得到的参考图越小、取值细节越小,最终扩散的图像随机细节越多,与原图的关系就越小。(2)Reference(参考)的专属参数 —— 参考风格的仿真度【Style Fidelity】:仅用于控制模式在平衡中的一个选项值,仅用于控制模式的均衡选项;它的值越大,强度就越高越相似,但就越有可能崩坏;值越小参考强度就越小。
2024-10-03 09:30:00
439
原创 Stable Diffusion零基础学习
ControlNet模型下载:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main。ControlNet安装链接:https://github.com/Mikubill/sd-webui-controlnet.git。ControlNet项目地址:https://github.com/Mikubill/sd-webui-controlnet。旁边Camera icon相机图标:是使用设备的相机拍照,并将其用作输入图像;
2024-10-02 10:00:00
651
原创 Stable Diffusion零基础学习
scribble_pidinet(涂鸦手绘):检测曲线和直边,其结果类似于合成,但通常会产生更清晰的线条和更少的细节;scribble_xdog(强化边缘):使用高斯扩展差分(XDoG一种边缘检测方法),提取细节更多,对于构图还原度也会更高。2、lineart_anime_denoise(动漫线稿降噪):相比于动漫线稿提取的细节更少,SD发挥的空间更大。3、lineart_coarse(粗略线稿):更适合扩散写实风格的图像使用,提取的细节更多。线稿除了可以用于人物上色,还可以用于对设计平面图进行上色渲染。
2024-09-30 09:45:00
446
原创 Stable Diffusion零基础学习
构图类之OpenPose姿态:用于检测人体各部位的关键点,只提取姿态信息不提取其他细节;它可以引导人物的姿态扩散从而到达人物指定姿态的作用;不同预处理器的区别只是在于提取的数据不同而已,我们可以根据所需要的人物姿态来选择不同的预处理器。
2024-09-29 09:45:00
331
原创 Stable Diffusion零基础学习
ControlNet目前支持的10多种预处理器,根据数据检测种类可分为两种类型:1、功能型:拥有着不同的能力2、构图型:控制着SD扩散图形的构图规则
2024-09-28 09:30:00
455
原创 Stable Diffusion零基础学习
1、t2ia_color_grid:像素化处理 —— 是将参考图像缩小64倍,然后将其扩展回原始大小,结果是局部平均颜色的网络状态;2、t2ia_sketch_pidi:手绘边缘处理 —— 可以提取图像大体轮廓,【适用于需要固定图像主要构图时使用】3、t2ia_style_clipvision:风格迁移处理 —— 是将输入图像转换为CLIP视觉嵌入,这种嵌入包含了有关图像内容和风格的丰富信息;还可以参考颜色构图、细小的元素,它的参考强度较之Reference(参考)更强。
2024-09-27 09:45:00
300
原创 Stable Diffusion零基础学习
该插件可以通过不同的颜色控制颜色区域内扩散的元素。这里要注意的是ADE20K和COCO分割的颜色图是不同的。
2024-09-26 09:45:00
694
原创 Stable Diffusion零基础学习
通过洗牌后,即使切换了模型;仍然保留了输入图像的颜色,但构图已经发生变化,适合需要提取颜色,但产生大幅构图变化使用。
2024-09-25 18:00:00
853
原创 Stable Diffusion零基础学习
图生图只是在初始引响噪声图而参考,可以理解为一种持续影响的图生图。使用参考预处理器,不使用控制模型,我们只需要选择预处理器即可。
2024-09-22 22:20:31
894
原创 Stable Diffusion零基础学习
ControlNet控制网:一种用于控制稳定扩散模型的神经网络模型;它可以获取额外的输入图像通过不同的预处理器检测对应的数据并转换为控制图,从而作为SD扩散图像的额外条件,引导图像扩散过程。
2024-09-22 21:00:30
558
原创 Stable Diffusion零基础学习
图生图的基础理论:将输入的图像隐藏在噪声图后进行引导扩散1、重绘幅度 —— 调整输出图像和输入图像的相似度2、内补绘制功能有 —— 局部重绘、涂鸦、涂鸦重绘、上传蒙版、批量重绘3、内补绘制功能参数 —— 缩放模式、蒙版区域、内容处理
2024-09-11 15:30:00
422
原创 Stable Diffusion零基础学习
涂鸦重绘允许用户使用画笔工具在图片上直接涂鸦,通过调整画笔的颜色和透明度,SD会根据画笔的颜色和位置在图片上进行重绘,生成与涂鸦内容相关的图像部分。
2024-09-10 10:45:00
539
原创 Stable Diffusion零基础学习
重绘幅度实际上表示的是添加到输出图像的噪声量,重绘幅度值越大,图像变化越多,新图像与原图像的差异越大;重绘幅度值越小,图像变化越少,保留原图像细节越多;可以根据不同需求调整重绘幅度,达到控制输出结果与输出图像相似度的作用。
2024-09-09 16:34:36
687
原创 Stable Diffusion零基础学习
从这里我们可以看出SD并不是真的明白我们提供的图像是什么,而是通过组合后的原始噪声图加上提示词和参数的引导,在底模中找到与原始噪声图最匹配的元素,从而扩散出类似的结果。
2024-09-08 21:20:17
472
原创 ChatGPT — GPT万能提示语句式
不要使用反引号或代码框。8、假设您正在为XX受众撰写一篇文章,请根据他们的兴趣和需求回答以下问题。2、将这个主题扩展为一篇有深度、逻辑严密的论述,字数限制为Xx字。6、请提供一个与这个主题相关的电影、书籍或其他媒体作品的推荐清单。3、请参考以下例子,将其扩展到XX字数,并保持类似的风格。8、设想一个XX背景的场景,并根据这个场景回答以下问题。7、请根据以下情境,为这个问题提供一个有创意的解决方案。5、请回顾这个领域的历史,并分析它对现在和未来的影响。5、在不超过XX字的情况下,提炼出这个主题的核心要点。
2024-09-06 23:34:34
509
原创 打造无闪烁丝滑AI动画操作步骤(Transparent Background + EbSynth Utility) 简单快捷易制作【下】
打造无闪烁丝滑AI动画操作步骤(Transparent Background + EbSynth Utility) 简单快捷易制作【下】
2024-09-05 09:45:00
652
原创 打造无闪烁丝滑AI动画操作步骤(Transparent Background + EbSynth Utility) 简单快捷易制作【上】
打造无闪烁丝滑AI动画操作步骤(Transparent Background + EbSynth Utility) 简单快捷易制作【上】
2024-09-04 10:00:00
1053
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人