stable diffusion使用简明教程

controlNet模块使用

请添加图片描述

  1. Enable选项启用,使用Openpose Edito中姿势生成需要将Openpose Editor指定为none状态。
    
    
  2. 上面骨骼图是通过Openpose Editor调整姿势然后send to txt2img到这里的,使用Openpose Edito中姿势生成需要将Openpose Editor指定为none状态。

Preprocessor选项:

Canny edge — 黑色背景上带有白色边缘的单色图像。 将图片变成线稿。

Depth/Shallow areas — 灰度图像,黑色代表深区域,白色代表浅区域。

Normal map — 法线贴图图像。

Semantic segmentation map——ADE20K 的分割图像。

HED edge — 黑色背景上带有白色软边缘的单色图像。

Scribbles — 黑色背景上带有白色轮廓的手绘单色涂鸦图像。

OpenPose (姿势关键点)— OpenPose 骨骼图像。

M-LSD — 仅由黑色背景上的白色直线组成的单色图像

Preprocessor部分选项使用教程

官方教程链接:Control human pose in Stable Diffusion Stable Diffusion Art (stable-diffusion-art.com)
1. canny图像生成线稿
先加载对应的模块吗,然后点击生成。
请添加图片描述

2. hed轮廓生成图像,跟上面操作一样只需要更换对应的Preprocessor选项和model为hed,也需要根据添加描述来生成

请添加图片描述

3.scribble涂鸦生成
请添加图片描述

以上推图片生成的风格内容都是需要根据底层模型来获取内容。跟换底层模型在
请添加图片描述

图生图img2img

请添加图片描述

对于生成出来的图片局部不满意可以进行局部重绘,涂黑需要修改的地方,不满意就send to inpaint在修改好一点的基础上继续修改,一直到满意为止
请添加图片描述

协同创作,根据你的手绘和提示词然后图生图生成不同内容
请添加图片描述

使用技巧

tag提示词:
线稿:((line art, white and black))
漫画风:((monochrome, screentone))

生成原则

  • 一般原则:
    一般来说越靠前的词汇权重就会越高,所以多数情况下的提示词格式是:质量词,媒介词,主体,主体描述,背景,背景描述,艺术风格和作者
  • 权重调节: 最直接的权重调节就是调整词语顺序,越靠前权重越大,越靠后权重越低,可以通过下面的语法来对关键词设置权重,一般权重设置在0.5~2之间,可以通过选中词汇,按ctrl+↑↓来快速调节权重,每次步进为0.1,(best quality:1.3)
  • 词条组合:
    几个词用括号合起来并不会让ai把他们视为一体,即使打上权重也不行,比如以下两者实际上是完全等价的
    ○ (car, rockt, gun:1.3)
    ○ (car:1.3), (rocket:1.3), (gun:1.3)
    词条组合的方式和自然语言差不多,要使用介词,比如and,with,of 等等,比如(car with guns and rockets)

采样方法
采样方法有很多,但是目前常用的基本只有几种:

  • Euler a:速度最快的采样方式,对采样步数要求很低,同时随着采样步数增加并不会增加细节,会在采样步数增加到一定步数时构图突变,所以不要在高步数情景下使用
  • DPM++2S a Karras 和 DPM++ SDE Karras:这两个差不太多,似乎SDE的更好,总之主要特点是相对于Euler a来说,同等分辨率下细节会更多,比如可以在小图下塞进全身,代价是采样速度更慢
  • DDIM: 很少会用到,但是如果想尝试超高步数可以使用,随着步数增加可以叠加细节

采样步数
一般来说大部分时候采样部署只需要保持在20~30之间即可,更低的采样部署可能会导致图片没有计算完全,更高的采样步数的细节收益也并不高,只有非常微弱的证据表明高步数可以小概率修复肢体错误,所以只有想要出一张穷尽细节可能的图的时候才会使用更高的步数

输出大小
大致的输出大小和内容关系参考:
• 约30w像素,如512_512,大头照和半身为主
• 约60w像素,如768_768,单人全身为主,站立或躺坐都有
• 越100w像素,如1024*1024,单人和两三人全身,站立为主
• 更高像素,群像,或者直接画面崩坏

提示词相关性(CFG)
CFG很难去用语言去描述具体的作用,很笼统的来说,就是给你所有的正面和反面提示词都加上一个系数,所以一般CFG越低,画面越素,细节相对较少,CFG越高,画面越腻,细节相对较多
• 二次元风格CFG可以调的高一些以获得更丰富的色彩和质感表达,一般在712,也可以尝试1220
• 写实风格CFG大都很低,一般在4~7,写实模型对CFG很敏感,稍微调多一点可能就会古神降临,可以以0.5为步进来细微调节

随机种子
• 点击筛子按钮可以将随机种子设为-1,也就是随机
• 点击回收按钮可以将随机种子设为右边图片栏里正在看的那张图片的随机种子

面部修复
面部修复在早期模型生成的的写实图片分辨率不高的时候有一定价值,可以在低分辨率下纠正错误的写实人脸,但是现在的模型的脸部精度已经远超早期模型,而面部修复功能会改变脸部样貌,所以只要无视这个功能就好

VAE设置
VAE的作用是修正最终输出的图片色彩,如果不加载VAE可能会出现图片特别灰的情况,设置位置:
• 设置-StabelDiffusion-模型的VAE
设置之后记得点击上方的保存设置,VAE是通用的,可以和任何模型组合

解决方案

修复手部姿势


tag提示词网站
https://aitag.top/
https://tags.novelai.dev/
https://www.wujieai.com/tag-generator

教学文档
https://stable-diffusion-art.com/automatic1111

模型库

模型下载:
https://civitai.com/
https://huggingface.co/lora-library

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

对于0基础小白入门:

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!

需要的可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

1.stable diffusion安装包 (全套教程文末领取哈)

随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。

最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本

在这里插入图片描述

2.stable diffusion视频合集

我们在学习的时候,往往书籍代码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入门stable diffusion,科学有趣才能更方便的学习下去。

在这里插入图片描述

3.stable diffusion模型下载

stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。

在这里插入图片描述

4.stable diffusion提示词

提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。

在这里插入图片描述

5.AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述
这份完整版的学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

<think>好的,用户想了解与Dream相关的主题的技术资料。首先需要明确用户的具体需求是什么。Dream这个词可能指多个领域,比如编程框架、游戏引擎、数据分析工具或者心理学概念。需要进一步分析用户的问题。 用户的问题提到“主题”和“技术资料”,可能是指某个技术相关的主题,比如软件开发中的Dream框架或工具。先进行搜索,确认是否存在以Dream命名的技术项目或工具。 使用网络搜索工具查找“Dream 主题 技术资料”相关的关键词。发现Dream可能指代不同的技术资源。例如,DREAM框架在医疗数据分析中的应用,或者Dream3D用于3D建模,还有可能是指Adobe Dreamweaver网页设计工具。 根据搜索结果,整理出几个可能相关的技术方向:DREAM医学研究框架、Dream3D开源工具、Dream序列生成算法、Dream Weaver网页开发工具。需要分别收集这些方向的技术资料和资源链接。 确保每个技术方向都有足够的文档和社区支持,方便用户深入学习和应用。需要验证各个资源的可靠性和最新性,比如GitHub仓库的活跃度、官方文档的更新日期等。 最后,将整理好的信息按照方法或步骤组织,每个部分简明扼要,包含核心概念、技术特点、应用场景及资源链接。避免使用步骤词汇,保持自然的结构。同时,注意格式要求,正确使用代码块和数学公式的标记,如果有相关内容的话。 生成相关问题部分时,需基于用户原始问题及回答内容,提出三个相关且具体的问题,帮助用户进一步探索。例如,DREAM框架的详细应用、Dream3D的使用教程、Dream算法的数学原理等。</think>**Dream主题相关技术资料整理** --- ### 1. **DREAM医学研究框架** DREAM(Dialogue for Reverse Engineering Assessments and Methods)是用于生物医学数据分析的开源框架,支持算法基准测试和协作研究。 - **技术特点**:提供标准化数据集、评估指标和挑战赛机制 - **应用场景**:基因调控网络推断、药物响应预测 - **资源链接**: - 官方文档:[dreamchallenges.org](https://www.dreamchallenges.org) - GitHub仓库:[DREAMTools](https://github.com/dreamtools) --- ### 2. **Dream3D三维数据处理工具** Dream3D是用于材料科学和工程领域的开源工具,支持3D微观结构数据的生成与分析。 - **核心功能**: - 数据过滤管道(Pipeline) - 晶体取向可视化 - 有限元网格生成 - **代码示例**: ```python from dream3d import filters pipeline = filters.DataContainerReader() pipeline.execute() ``` - **资源**:[Dream3D官方文档](https://dream3d.bluequartz.net) --- ### 3. **Dream序列生成算法** 基于深度学习的序列生成技术(如DALL·E、Stable Diffusion)常被称为"Dream"类模型,用于图像/文本生成。 - **数学原理**: 扩散模型通过逐步去噪生成数据: $$x_{t-1} = \frac{1}{\sqrt{\alpha_t}} \left( x_t - \frac{\beta_t}{\sqrt{1-\bar{\alpha}_t}} \epsilon_\theta(x_t,t) \right) + \sigma_t z$$ - **开源实现**: - HuggingFace Diffusers库 - GitHub项目:[CompVis/stable-diffusion](https://github.com/CompVis/stable-diffusion) --- ### 4. **Dream Weaver网页开发工具** Adobe Dreamweaver仍是流行的网页设计工具,支持实时预览和代码编辑。 - **关键技术**: - Bootstrap框架集成 - 多屏预览功能 - Git版本控制支持 - **学习资源**:[Adobe官方教程](https://helpx.adobe.com/dreamweaver/tutorials.html) ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值