Stable Diffusion——Dreambooth 模型

1. Dreambooth 模型简介

Dreambooth 是2022年谷歌发布的一种训练模型的方式,该方式通过向模型注入自定义的主题来微调扩散模型

Google 团队解释了为什么给这个训练方法起这样一个名字“Dreambooth : It’s like a photo booth, but once the subject is captured, it can be synthesized wherever your dreams take you.”。翻译过来大概意思就是,在一个小拍照亭( booth:一个小黑屋,在屋子里你可以照半身像的照片)中进行拍照,无论是人物、动物或物体等等,一旦你拍照成功,那么“你便可以任由梦想带你去到任何一个场景”,即这个照片里的主角都可以被合成融入到任何的“梦想的场景”中。

论文中举了一组狗的例子:仅使用 3 张图片作为训练的输入,成型的模型就可以在不同的提示词作用下生成不同场景或不同风格的画面中这种狗狗的画面,且狗狗和对应的提示词所表达的风格与场景融合的相当自然。所以,Dreambooth 模型就像一个“小照相亭”一样,一旦拍照成功,就可以 AI 生成的方式自动 P 到任何一个场景中去,且和场景融入得相当好。

img

只有3个训练图像,Dreambooth 便可以往 SD 基础大模型中注入这个这个狗狗的形象

在 Stable Diffusion 领域, DreamBooth 具体的模型训练思维框架是这样的。它基于原有的基础大模型进行追加学习训练,相当于在原有基础大模型之中注入了一些新的信息,以期达到训练的目标。达成训练结目标后,便得到了一个新的基础大模型。这样训练出来的模型文件大小通常在 2GB到5GB,因此不便于在网上进行广泛的交流。虽然传播效率和训练效率不高,但是模型的品质却是很好。

img

DreamBooth 的模型训练思维框架

Dreambooth 训练出的结果为 Checkpoint 模型(.ckpt 或 .safetensors 扩展名文件的模型),这种模型相当于训练出一了个完整的新 SD 基础模型出来。只是在训练过程中,是需要单独提供一个class类别的定义,比如这几张狗狗的图片来训练,就需要提供一个类别”dog“,这样模型就会在原有 SD 基础大模型中仅仅从“dog”这一细分领域去训练了。另外一个就是需要提供一个独特的名称,比如 kkoxxbb 这种明显不是某个有意义的单词的新名字,确保这个新名字在原有 SD 大模型中不被识别为某种自然语言的含义。这样 Dreambooth 训练就变成一个在原有 SD 基础模型之中进行局部参数的更新来完成训练的过程。

因此从效果上来说,Dreambooth 是将一个以前人类史上没有见过的崭新的概念添加到 SD 基础模型中的最适合的训练方案。当然,如果你非要把你家的狗狗的照片当做“人类史上没有”的崭新形象进行 Dreambooth 训练也没关系,只不过是有点大材小用,因为其实这样的训练,单靠 LoRA 训练就可以了。

img

2. Dreambooth 模型在 Stable Diffusion WebUI 中的使用

在 Stable Diffusion WebUI 的使用中, Dreambooth 训练出的模型一般为 .ckpt 或 .safetensors 为扩展名的文件,把它们放在 stable-diffusion-webui/models/Stable-diffusion 目录中,使用时无需重启 WebUI,在基础模型选择下拉框处刷新后选择即可开始使用。并且你无需在提示词中有任何特殊的公式语句来描述该模型。你仍然可以附加其他 LoRA 模型来进行叠加的风格变换。

3. Dreambooth 的模型训练

Dreambooth 的模型训练,如果通过 kohya_ss GUI 这个软件来进行,则 Dreambooth 的训练设置界面类似 LoRA ,其训练数据集的准备和训练时的参数设置也与 LoRA 大体相同,除了有个别的设置是不同的。(具体细节请查看通过 kohya_ss GUI 训练 LoRA 模型

3.1 首先是需要确定清楚对训练集图片的 class 与 instance

举个例子,假设我们要训练一个“施瓦辛格”的模型。我们有3张他的照片图片,设置每一张的 captions(图片描述文本)如下:

  1. Schwarzenegger, man, sunglasses, black coat, muscular, scene from Terminator
  2. Schwarzenegger, man, suit, red tie, smiling
  3. Schwarzenegger, muscular, smiling, man, flexing, black and white

class 此时的设置就应该是“man”。这个 class 的作用就是首先框定住要训练的这个“Schwarzenegger”概念是属于“man”这个类别的,这样在训练时就会使 SD 基础大模型聚焦于“man”这个大概念范畴。同时,更重要的作用是,避免“Schwarzenegger”这个新的概念把所有“man”的概念带歪!

再具体来说就是,这三个训练图片的 captions(图片描述文本)中都有“man”这个提示词,那么在模型训练时,势必会影响模型与“man”的关联度,以至于在模型训练好后在具体使用模型时,当你输入“man”这个提示词时,都会产生“施瓦辛格”形象的图片。也就是说,由于在训练阶段提示词中都有“man”,导致 SD 基础大模型所有有关man的内容都聚焦到了“Schwarzenegger”这个新的概念上。

这就是“既要又要”的尴尬。。。既要框定范围为“man”,又不能让“Schwarzenegger”将所有“man”概念劫持。所以就引入了一个叫 class 的东西。

此时 class 在设置为“man”后,系统在调用“Schwarzenegger”这三个训练集图片时,同时会生成3张正常的“man”的图片,以做平衡。具体是这样进行的,首先你设置参数如下:

  • Instance Token = Schwarzenegger
  • Class Token = man
  • Instance Prompt = [filewords]
  • Class Prompt = [filewords]
  • # Class Images = 1

这些参数的意思是,

  • instance 代表这三个“Schwarzenegger”的训练集图片,Instance Token 就是告诉系统,在captions(图片描述文本)中,凡是有“Schwarzenegger”这个词时,就被识别为训练集图片的独有概念单词;
  • Class token,就是说此次训练的内容是被框定在“man”这个 class 类目中的,系统会为每一个 Instance 图片生成若干匹配的一般意义上的“man”的图像,以避免“Schwarzenegger”这个新概念把所有“man”概念都劫持走。具体这个“若干”是多少呢?下面 # Class Images 处进行设置,本例子为 1;
  • Instance Prompt 和 Class Prompt 默认。

系统生成“man”图像时,这些图像遵循的提示词标准就是你提供的 caption 中的非“Schwarzenegger”部分,即:

  1. man, sunglasses, black coat, muscular, scene from Terminator
  2. man, suit, red tie, smiling
  3. muscular, smiling, man, flexing, black and white

这样就可以来平衡了。注意,在实际的训练过程中 # Class Images 的设置更多时不会仅仅是 1。这要看模型被新概念词汇和训练图片带偏的程度来决定,如果新概念和训练图片太强,这里就需要更多的 class 图片做平衡,所以可能会设置成 3 或 5,等等。这个可以多去尝试。

3.2 在 Dreambooth 模型训练的界面中,有几处高级设置与 LoRA 不同

  • VAE 输入框 (Optional) path to checkpoint of vae to replace for training:如果在此处指定了一个 VAE 模型文件,那么该 VAE 将参与模型训练,并且在得到的Dreambooth 模型中,将自动包括该 VAE 。
  • Flip augmentation 复选框:类似 Color augmentation 将颜色进行轻微调节,以增加训练图像的多样性,Flip augmentation 将图像左右进行镜像反转,以增加训练图像的多样性。

img

kohya_ss GUI 中Dreambooth 训练的界面

此外,还有一些在 Dreambooth 模型训练时需要注意的点:

  • 正则化图像的损失权重设置,通常为1.0。
  • 因为训练的数据集图像和正则化图像是被分开来训练的,他们占用各自的 steps 。所以,你本来设置的训练总 steps,实际上用于真正训练目标数据集的图像几乎只有二分之一的实际 steps。所以,将总 steps 数量增加一倍用来考虑总步数,才是合理的。
  • 如果你需要指定 v2 版本相关的基础底模型,请确保对应的名字相同的 *.yaml 底模型描述文件同时也在同一个文件夹内。
  • 训练图像的大小尺寸最好是 64 的整数倍,比如: 448640。SD XL 版本的模型应该在 10241024 分辨率下进行,但这对 GPU 和 CPU 需要较强大,GPU 建议要达到 24G 的 VRAM。
  • 训练集图像和正则化图像的尺寸最好是一样的。因为他们在调入时是同时的,这些图像将由 Bucket 桶来同时操作。有关“Bucket 桶”的概念请参见 LoRA 模型训练的内容。
  • Dreambooth 存储的文件的可选格式比 LoRA 多,.ckp,.safetensors,.diffusers,.diffusers_safetensors 共四种格式,以及一个保持与原底模型一致的格式。建议用 *.safetensors 或与原底模型一致的格式。
  • 如果你的显卡可以支撑,适当提高一些 batch size 将有助于提高精度,但最好是循序渐进地一步一步地提高,以观察效果。
  • 建议打开 Gradient checkpoint。PyTorch 2 比 PyTorch 1 占用更少的 VRAM。 Optimizer 优化器用 Adafactor,AdamW 8bit 不起作用。 Optimizer 的参数设置如下:
optimizer_type = "adafactor" optimizer_args = [ "scale_parameter=False", "relative_step=False", "warmup_init=False" ] lr_scheduler = "constant_with_warmup" lr_warmup_steps = 100 learning_rate = 4e-7 # SDXL original learning rate

4. SD的四种模型

目前 Stable diffusion 中用到主要是四种模型,分别是 Textual Inversion (TI)以 Embeddings 模型为训练结果、Hypernetwork 超网络模型、LoRA(包括 LoRA 的变体 LyCORIS)模型、Dreambooth 模型。

为了方便区分这几种微调模型以及 SD 基础大模型之间的不同属性,我特地做了下面的表格:

img

SD基础大模型与微调模型属性对比表(原创图表,转载请注明出处)

其中最主流的模型训练方式为 Dreambooth 和 LoRA(以及 LoRA 的变体 LyCORIS)。就训练时间与实用度而言,平均打分为: Dreambooth > LoRA > HyperNetwork > Embedding。Dreambooth 模型、Embeddings 模型、LoRA 模型较受欢迎,Hypernetworks 模型则有被淘汰的趋势。


现在AI绘画还是发展初期,大家都在摸索前进。

但新事物就意味着新机会,我们普通人要做的就是抢先进场,先学会技能,这样当真正的机会来了,你才能抓得住。

如果你对AI绘画感兴趣,我可以分享我在学习过程中收集的各种教程和资料。

学完后,可以毫无问题地应对市场上绝大部分的需求。

这份AI绘画资料包整理了Stable Diffusion入门学习思维导图Stable Diffusion安装包120000+提示词库,800+骨骼姿势图,Stable Diffusion学习书籍手册AI绘画视频教程AIGC实战等等。

完整版资料我已经打包好,点击下方卡片即可免费领取!

【Stable Diffusion学习路线思维导图】

img

【Stable Diffusion安装包(含常用插件、模型)】

img

【AI绘画12000+提示词库】

img

【AI绘画800+骨骼姿势图】

img

【AI绘画视频合集】

img

这份完整版的stable diffusion资料我已经打包好,点击下方卡片即可免费领取!

在这里插入图片描述

### 如何个人训练 Stable Diffusion 模型 #### 准备工作 为了能够顺利地进行模型训练,需要确保本地或云端机器上已安装完整的 StableDiffusion 并配置好了 dreambooth 扩展工具。此外,还需要准备至少一款基础模型作为起点[^2]。 #### 环境搭建 在开始之前,需构建合适的训练环境。这通常涉及到设置 Python 虚拟环境以及安装必要的依赖库,比如 PyTorch 和 Transformers 库等。对于具体的环境搭建细节,在已有资料中有详细的说明可以参照[^1]。 #### 数据集准备 高质量的数据集是成功的关键之一。收集并整理用于微调的基础图像数据集非常重要。这些图片应该尽可能贴近想要达到的艺术风格或者特定主题。同时也要准备好相应的标签文件以便后续处理。 #### 训练过程 一旦前期准备工作完成之后就可以着手于实际的训练环节了: - **加载预训练权重**:从官方仓库或者其他可信资源下载预先训练过的稳定扩散网络参数。 - **定义超参数**:设定诸如批次大小(batch size),迭代次数(iterations),学习率(learning rate)等一系列影响最终效果的重要变量。 - **执行训练脚本**:运行指定命令启动训练流程,期间可能还会涉及监控损失函数变化趋势来调整策略。 当整个训练周期结束后,记得保存新生成的 LoRA (Low-Rank Adaptation) 模型到 `stableDiffusion/lora` 文件夹内,并为其匹配一张吸引人的封面图以供展示之用。 ```bash # 假设这是用来启动训练的一个简单Shell指令 python train.py --data_path ./dataset --output_dir ./results --num_epochs 50 ``` #### 进一步探索 深入理解 Stable Diffusion 的内部结构有助于更好地掌握其运作机制。该框架主要由三个部分组成——CLIP负责编码输入提示词;UNet则承担起生成图像的任务;而 VAE 则专注于解码潜在空间向量回到像素级表示形式[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值