# 秋叶大佬的 SD 安装包(stable diffusion 附带安装教程)(最新版)

前言

如果你想尝试使用 Stable Diffusion,点击下方卡片即可下载最新版安装包。

当下,人工智能领域发展迅猛,ChatGPT、秘塔写作猫等工具广为人知。借助这些 AI,我们能够高效完成写作、问答、翻译、编程、数据分析等一系列工作,极大提升生产力。

在 AI 绘画方面,热度持续攀升。从国外的 Midjourney,到国内的无界 AI、文心一言等,都备受关注。然而,这些线上 AI 绘画平台往往存在生成次数限制、使用时长限制,有时还需要排队等待出图。相比之下,免费开源的 Stable Diffusion 脱颖而出,成为许多创作者的首选工具。
img

Stable Diffusion中文版 v4.9秋葉版

安装说明:复制安装包到磁盘(如D盘),安装dotnet后,发送【AI绘世启动器】到桌面快捷方式即可使用

img

Stable Diffusion便携版,开源免费 AI 绘图工具神器

Stable Diffusion简称SD,是一款非常强大的AI绘画工具,并且它还是一个开源项目,可以直接在自己的电脑上部署,并且可以免费出图,出图的速度完全取决于自己电脑的配置。

在早期的SD版本。安装是比较麻烦的,你可能还需要了解python相关的知识,部署起来非常麻烦,但是B站大佬 秋葉 分享制作的一键傻瓜SD安装包,直接解压即用!

找到【sd-webui-aki-v4.2】这个文件夹,双击打开,并找到“A启动器.exe”这个文件,双击打开。

img

「A·启动器」,提供了众多便捷直观的功能 (如下图),「一键启动」就能运行并打开 SD WebUI,轻松解决 Stable Diffusion 新手入门上手难的问题。

img

点击“一键启动”之后就会弹出一个控制台的界面,这里我们可能需要等1-5分钟,具体等待时间与电脑的配置,以及你所添加的模型大小、数量有关,所以我们耐心等它把文件加载完成。

img

然后我们在浏览器中打开 http://127.0.0.1:7860/ 这个网址即可进入Stable Diffusion,一般情况下Stable Diffusion加载完成后会自动进入这个网址的。到这一步就可以开始用你的关键词开展你的创作了。

img

电脑配置要求:

最低配置

操作系统 随你选择

CPU 无硬性要求

显卡 RTX 2060 及同等性能显卡

显存 6GB

内存 8GB

硬盘空间 20GB的可用硬盘空间

在此配置条件下,约1-2分钟一张图,可绘制分辨率512512像素

推荐配置

操作系统 Windows 10/11 64 位

CPU 支持 64 位的多核处理器

显卡 RTX 3060Ti 及同等性能显卡

显存 8GB

内存 16GB

硬盘空间 100~150GB的可用硬盘空间

*在此配置条件下,约10-30秒一张图,可绘制分辨率10241024像素。

Stable Diffusion 不同模型风格的 AI 画图作品演示:

img

生成AI图片 (入门教程):

使用 Stable Diffusion「文生图」生成一张图片的步骤其实很简单,你需要的做就是:选择模型 → 输入正向提示词 → 负向提示词 → 生成。

其中,正向提示词 (关键词) 是告诉 AI 你要画什么,必须用英文 (建议使用 ChatGPT、Claude 等帮助翻译生成
Prompt),词语之间用英文逗号分割。而负向提示词则相反,表示你不希望图片里出现什么。比如我希望画一个美女、长发、有花,最好真实一点,那么就输入:

1 girl, long hair, flowers, realistic

这样就能搞出一张图女孩的图来了。当然你的描述细节越多越丰富,加上合适优秀的模型,出图的效果才会更好。

Stable Diffusion 出图的质量很大程度上由模型和 Prompt 提示词所决定。你希望生成各种各样的图片,那么就需要下载各种不同模型多多尝试。下面我们再说说 SD 模型的下载。

通过模型可生成不同风格的绘图作品:

img

那么,我们去哪里可以下载到 Stable Diffusion 的模型呢?

推荐的 Stable Diffusion 模型下载网站:

Civitai.com
– 俗称 C 站,是最受欢迎的 AI 图像模型网站之一 (但国内需要魔法)

Huggingface.co
– 界面比较朴素,模型也非常丰富,好处是国内可以直接访问

Liblibai.com
– 国内较大的 AI 模型分享网站,大多搬运自 C 站,但也有积累到部分人气的原创国产模型

liandange.com
– 国内 AI 模型分享网站,主要也是搬运 C 站资源

各种 AI 模型类型说明

Checkpoint / 大模型 / 底模型 / 主模型
Checkpoint 模型指是 SD 能够直接绘图的基础模型,因此被称为大模型、底模型或者主模型,在 WebUI 上就叫它 Stable Diffusion 模型。安装完 SD
软件后,必须搭配主模型才能使用。不同的主模型,其画风和擅长的领域都会有不同侧重。

LoRA 模型
目前最热门的微调模型,它可在原有大模型的基础上,对模型进行微调,从而能够生成特定的人物、物品或画风,比如很火的各种专门生成亚洲网红脸的真人美女 LoRA 模型。它们通常体积不会太大,且必须与 Checkpoint
模型一起使用。

VAE 美化模型 (变分自编码器)
VAE 的全名叫 Variational autoenconder,中文叫变分自编码器。主要作用就是给图片加滤镜以及微调,有各种比如二次元、写实风格的不同 VAE。一些大模型会自带了 VAE
(比如Chilloutmix)。如果你再加 VAE 则可能让图片效果变得混乱。

Embedding / Textual lnversion / 文本反转模型 / Hypernetworks
Embeddings / Textual lnversion 文本反转,必须与 Checkpoint 模型一起使用。通过仅使用几张图像,就能让模型学习新的风格和概念,主要用于个性化图像生成。Embeddings
由于训练简单,文件小,因此也颇受欢迎。而且安装后,只需要在 Prompt 提示词中提到它就相当于调用了,很方便。不过由于 Embeddings 训练集较小,因此出图往往做不太到“形神兼似”,所以大多数人还是更喜欢使用
LoRA 模型。

LyCORIS 模型
LyCORIS 可看作是一个优化版的 LoRA 微调模型,只是实现算法不同,在 SD 实现更多的参数有效微调,层级更多,因此可理解为是算法更优化更简洁更节约训练资源的微调模型。实际出图效果似乎也都比较好。

ControlNet 模型
主要用于控制图片的主体结构、构图、线条、边界等,比如控制人物的动作、通过简单的线稿、原图来生成对应构图的 AI 作品。

绘图演示:

img

总结:

开源免费的 Stable Diffusion AI绘图,对初学者入门来说虽然难度不高但还是颇为繁琐。

古话说的好:”工欲善其事,必先利其器,使用大佬制作好的 SD 中文绿色便携版,解压即用、能省下不少时间,让你直接专心投入到 AI 生图的技术学习中去。

最后生成精美的图片,主要要多尝试、先学习别人的作品,当然从入门到精通需要学习的知识还很多,需要一些耐心的哦。

如何学习Stable Diffusion ?

2023年,AIGC绘画元年,从年初以来,以Midjourney和Stable Diffusion 为代表的AIGC绘画迎来春天,掀起了一场生产力革命。

Stable diffuson最大的优势在于它的可控性以及免费开源。很多人想学习和使用stable diffusion,网上一搜,往往在安装这一步就劝退了很多人。

也因为Stable diffusion中的参数非常非常多,极其容易劝退,但事实是,对于我们来说,只需要熟练使用即可,并不需要深入的去研究它的原理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的StableDiffusion学习资料包括:StableDiffusion学习思维导图、StableDiffusion必备模型,精品AI学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天)Stable Diffusion初始入门

该阶段让大家对StableDiffusion有一个最前沿的认识,规避碎片化学习,对SD的理解将超过 95% 的人。可以在相关讨论发表高级、不跟风、又接地气的见解,成为AI艺术创作领域的佼佼者。

  • 1.Stable Diffusion的起源及工作原理

  • 2.Midjourney跟Stable Diffusion之间的的区分指南

  • 3.Stable Diffusion一键包快速实现部署

  • 4.Stable Diffusion启动器参数

  • 5.Stable Diffusion的“Settings”页面高效配置Al模型

  • 6.Stable Diffusion的插件安装指南

  • 7.汉化Stable Diffusion界面实操

  • 8.Stable Diffusion中的大模型使用指南

  • 9.Stable Diffusion VAE模型

  • 10.txt2img文本提示转换成图像实操

  • 11.生成(Generate)功能相关的系列按钮

  • 12.单批跟总批的配比选择指南

  • 13.采样方法

  • 14.生成图像的引导迭代步数

第二阶段(30天)Stable Diffusion进阶应用

该阶段我们正式进入StableDiffusion进阶实战学习,学会构造私有知识库,扩展不同的艺术风格。快速根据甲方的要求改动高效出图。掌握智能绘图最强的AI软件,抓住最新的技术进展,适合所有需出图行业真·生产力大爆发!!!

  • 1.涂鸦Sketch功能

  • 2.涂重绘鸦Inpainting Sketch功能

  • 3.局部重绘Inpainting功能详解

  • 4.上传蒙版Inpainting upload功能

  • 5.segment anything辅助抠图功能

  • 6.inpaint anything蒙版获取功能

  • 7.ControlNet的起源及工作原理

  • 8.ControlNet插件扩展功能

  • 9.ControlNet基础界面使用指南

  • 10.ControlNet五种线稿模型

  • 11…ControlNet重绘修复模型

  • 12.ControlNet 图像提示迁移模型实战

第三阶段(30天)专属Lora模型训练

恭喜你,如果学到这里,所有设计类岗位你将拥有优先选择权,自己也能训练Lora 了!通过对模型进行微调有效减少模型的参数量和计算量,以生成特定的人物、物品或画风,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 1.定制个人的LORA模型适配个性化需求

  • 2.高质量素材过程中的重要事项收集指南

  • 3.birme工具批量化的处理图片实战

  • 4.BooruDatasetTagManager工具打标图片实战

  • 5.正则化训练集使用指南

  • 6.SD-tainerLORA训练工具

  • 7.SD-tainer工具训练自己的Lora操作

  • 8.LORA模型测试指南

第四阶段(20天):商业闭环

对氛围性场景,关键词技巧,图生图实操流程等方面有一定的认知,教你「精准控制」所有图片细节,可以在云端和本地等多种环境下部署StableDiffusion,找到适合自己的项目/创业方向,做一名被 AI 武装的社会主义接班人。

  • 1.CodeFomer模型实战

  • 2.固定同一人物形象IP实战

  • 3.广告设计

  • 4.电商海报设计

  • 5.制作3D质感

  • 6.室内设计全案例流程

  • 7.AI赋能电商新视觉

  • 8.老照片修复

  • 9.小说推文

  • 10.影视游戏制作

  • 11.游戏开发设计

  • 12.三维软件去精准辅助SD出高质量图实战

  • 13.GFPGAN模型实战

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名AI绘图大神的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值