【stable diffusion】图片批量自动打标签、标签批量修改(BLIP、wd14)用于训练SD或者LORA模型

该文介绍了使用B站教学视频中的方法进行AI绘画的Lora训练,包括BLIP和Deepbooru打标模型的比较,以及使用sd-webui插件进行自动打标和编辑标签的过程。此外,还提及了稳定扩散模型的GUI环境安装和模型微调所需的技术栈如CUDA、PyTorch和Xformer。
部署运行你感兴趣的模型镜像

参考:

2025.02.20最新教程——【FLUX微调+风格训练】从零免费训练自定义图像风格

一、sd-webui通用的打标界面

1.1 打标界面
根据需求,选择通用打标模型(BLIP)还是动漫打标模型(deepbooru)
设置好后,选择预处理,会开始下载模型,可开代理加速
在这里插入图片描述
1.2 BLIP打标结果
在这里插入图片描述

1.3 Deepbooru标注结果 (标签效果比下一段介绍的wd-14差一些)
在这里插入图片描述

二、sd-webui插件下wd14自动对动漫打标

插件名称: stable-diffusion-webui-wd14-tagger

安装与下载方式

可参考

stable-diffusion-webui 扩展模块安装

在 extensions/文件夹下拉取源码

git clone https://github.com/toriato/stable-diffusion-webui-wd14-tagger.git extensions/tagger

2.1 选择Tagger下的Batch from directory

在这里插入图片描述

2.2 输入图片的路径

图片与服务器应在同一台电脑

批量打标

在这里插入图片描述

单张图片看效果

可以了解到一些打标签原理,他是一个多类分类器,输出得每个词都是有概率的,一般输出置信度40%以上的词。
在这里插入图片描述

2.3 等待模型自动下载(可能卡住)

在这里插入图片描述

2.4 打标结果

在这里插入图片描述

图片与对应tag结果1
在这里插入图片描述

图片与对应tag结果2

在这里插入图片描述

三、sd-webui编辑标签

https://github.com/toshiaki1729/stable-diffusion-webui-dataset-tag-editor
下载:
在这里插入图片描述

3.1 导入自动打标后的图片

在这里插入图片描述

3.2 批量修改添加

首先在所有tag前面加一个风格tag: cike567
在这里插入图片描述

打开txt查看

在这里插入图片描述

3.3 批量删除

在这里插入图片描述

四、lora训练集成开发工具自动打标

dreambooth、lora、sd模型微调的GUI环境安装(cuda驱动、pytorch、xformer)

(下载模型时间长,过程是类似的,本文暂不介绍了)
在这里插入图片描述

4.1 BLIP打标

首先会下载模型,下载非常慢
在这里插入图片描述

扩展——方法 阿里线上平台打标

https://modelscope.cn/aigc/modelTraining
在这里插入图片描述

上传图片后选择 打标方式

在这里插入图片描述

通义千问 单词打标

在这里插入图片描述
翻译
在这里插入图片描述

joycaption是连续的句子,适合flux之类的

在这里插入图片描述

详情
在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

Stable DiffusionWD14(即 Waifu Diffusion 1.4)是两个相关的文本到图像生成模型,其中 WD14 是基于 Stable Diffusion 进行优化和调整的变体,专门用于生成高质量的动漫风格图像。以下是关于 WD14 模型的基本使用指南和相关注意事项。 ### 安装与部署 在使用 WD14 模型之前,需要确保已经安装了 Stable Diffusion WebUI 环境,这是一个广泛使用的图形界面工具,支持多种模型的加载与运行。安装步骤大致如下: 1. 下载并安装 Stable Diffusion WebUI,可以通过官方仓库或者国内镜像获取安装包。 2. 安装完成后,将 WD14模型文件(通常为 `.ckpt` 或 `.safetensors` 格式)放置在指定的模型目录中,例如 `stable-diffusion-webui/models/Stable-diffusion`。 3. 启动 Stable Diffusion WebUI,访问默认地址 `http://127.0.0.1:7860` 进行操作。 ### 模型选择与配置 在 WebUI 界面中,用户可以从模型选择区挑选 WD14 模型WD14 提供了多种预训练版本,适用于不同的应用场景,如生成高质量的动漫角色、背景等。用户可以根据需求选择合适的模型,并调整相关参数以获得最佳效果。 ### 参数设置 WD14 模型的使用过程中,一些关键参数包括: - **Prompt**:输入描述性文本,用于指导图像生成的内容和风格。 - **Negative Prompt**:指定不希望出现在生成图像中的元素。 - **Sampling Steps**:采样步数,影响生成图像的质量和细节,通常建议设置在 20-50 之间。 - **CFG Scale**:控制生成图像与输入提示之间的匹配程度,数值越大,图像越贴近提示,但可能会牺牲一些多样性。 - **Seed**:随机种子,用于复现特定的生成结果。 ### 示例代码 以下是一个简单的 Python 脚本示例,展示如何调用 Stable Diffusion WebUI API 来生成图像: ```python import requests url = "http://127.0.0.1:7860/sdapi/v1/txt2img" payload = { "prompt": "a beautiful anime girl with long hair and big eyes", "negative_prompt": "low quality, blurry", "steps": 30, "cfg_scale": 7, "width": 512, "height": 512, "seed": 123456, "model": "wd14" } response = requests.post(url, json=payload) with open("output.png", "wb") as f: f.write(response.content) ``` ### 注意事项 - 在使用 WD14 模型时,需要注意模型文件的版权和使用许可,确保合法合规。 - 不同版本的 WD14 模型可能有不同的特性和表现,建议查阅官方文档或社区讨论,了解最新的信息和优化建议。 - 如果遇到性能问题,可以尝试调整 GPU 内存分配或其他硬件加速选项,以提高生成效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

曾小蛙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值