kohya ss工具Stable Diffusion LoRA微调全攻略(含本地安装+云端使用,建议收藏)

部署运行你感兴趣的模型镜像

文章详细介绍了kohya_ss这一Stable Diffusion模型微调工具,重点讲解LoRA训练方法。涵盖本地安装步骤和云端使用方案,对比四种微调方法,指出LoRA是当前主流方案。提供关键参数设置和显卡优化建议,为不同需求用户提供本地部署和云端使用两种选择,适合小白入门学习。


目 录

前言

这篇文章来聊一聊关于kohya_ss工具

kohya_ss是一个专为Stable Diffusion模型训练设计的工具,主要用于使用LoRA方法对模型进行微调和训练。
功能与用途

  • LoRA模型训练:kohya_ss允许用户通过LoRA(低秩适应)方法对Stable Diffusion模型进行微调。这种方法可以在不修改原始模型参数的情况下,插入新的网络层,从而实现轻量化的模型调校。
  • 可视化界面:该工具提供了一个用户友好的可视化界面,用户可以通过图形界面轻松配置训练参数,进行数据处理和模型训练,适合初学者使用。
  • 环境配置:kohya_ss支持在多种操作系统上运行,包括Linux和MacOS,用户需要配置Python环境和相关依赖库。
  • 训练流程:用户可以通过简单的步骤进行模型训练,包括数据准备、参数设置和训练启动。该工具还支持对训练过程中的错误进行分析和处理。

kohya_ss

kohya_ss是用来训练LoRA模型的一个工具,目前已经集成了GUI界面,对于新手来说非常友好,毕竟总要比改文本内的参数更加直观吧?

下面是关于kohya_ss的安装教程,整个过程还是比较简单的。

安装步骤

需要找一个文件夹(不要出现中文),在地址栏输入cmd,按回车打开命令行窗口
然后依次复制以下命令到终端并按回车;

git clone --recurse-submodules https://github.com/bmaltais/kohya_ss.git

cd kohya_ss 
 
python -m venv venv 

.\venv\Scripts\Activate.bat

python.exe -m pip install--upgrade pip

pip install 
https://github.com/Nuullll/intel-extension-for-pytorch/releases/download/v2.1.10%2Bxpu/intel_extension_for_pytorch-2.1.10+xpu-cp310-cp310-win_amd64.whl 
https://github.com/Nuullll/intel-extension-for-pytorch/releases/download/v2.1.10%2Bxpu/torch-2.1.0a0+cxx11.abi-cp310-cp310-win_amd64.whl 
https://github.com/Nuullll/intel-extension-for-pytorch/releases/download/v2.1.10%2Bxpu/torchaudio-2.1.0a0+cxx11.abi-cp310-cp310-win_amd64.whl 
https://github.com/Nuullll/intel-extension-for-pytorch/releases/download/v2.1.10%2Bxpu/torchvision-0.16.0a0+cxx11.abi-cp310-cp310-win_amd64.whl

继续安装

pip install-r requirements_windows.txt

.\setup.bat

打开记事本,复制添加以下内容:

@echo off   
chcp 65001   
 
call venv\\Scripts\\activate.bat 
python kohya_gui.py --use-ipex --inbrowser 
 
@echo 启动完毕,请按任意键关闭   
call pause

这样操作更简单:

创建启动器:
去kohya_ss文件夹根目录新建文本文档,把下面这段代码复制进去(记得改中文的话保留–language zh-CN参数):

@echo off
python webui.py --language zh-CN

保存时选择"所有文件",文件名改成start.bat。之后双击这个bat文件就能直接弹出网页训练界面。

显卡设置要点:

训练LoRA时注意这几个关键设置:

  • 在【加速训练】选项卡里:混合精度选bf16,优化器千万别选带8bit的(比如adamw8bit就别用)
  • 【高级参数】里必须把注意力模式改成sdpa
    如果是A750显卡跑768x768分辨率,记得勾上"内存高效注意力"(A770 16G用户可以无视这点)

这些参数不按要求设的话,要么训练会报错,要么显存不够用。特别是优化器如果选错,训练过程会出现显存暴增的问题。

测试

参考资料

bmaltais:kohya_ss

Nuullll:IPEX v2.1.10+xpu+oneapi

大家觉得在本地搞这么操作跟相比直接给你提供一个Web平台训练,谁方便?接下来给大家展示一下蓝耘平台的kohya_ss

先说说蓝耘这个平台
如何注册蓝耘智算平台
1.点击注册链接:蓝耘智算平台
2.进入下面图片界面,输入手机号并获取验证码,输入邮箱,设置密码,点击注册在这里插入图片描述

蓝耘是一家专业的GPU算力云服务提供商,基于行业领先的灵活的基础设施及大规模的GPU算力资源,为客户提供开放、高性能、高性价比的算力云服务,助力客户AI模型构建、训练和推理的业务全流程。

这里给大家送给福利。千万 Token 资源包福利都在送,感兴趣的赶紧来吧
https://console.lanyun.net/#/register?promoterCode=18586cc762

风吟kohya_ss-v2

说白了,就是专门提供GPU算力的云服务商。我之前用过他们的服务训练一些小模型,感觉还不错。这次蓝耘新发布了风吟kohya_ss-v2,直接web部署一站式使用,非常方便,并且响应速度确实挺快的。

选择GPU和添加端口后,点击立即购买

等待创建,然后开启

启动GUI后,进入页面:

stable diffusion模型微调方法

主要有 4 种方式:Dreambooth, LoRA(Low-Rank Adaptation of Large Language Models), Textual Inversion, Hypernetworks。它们的区别大致如下:

  • Textual Inversion (也称为 Embedding),它实际上并没有修改原始的 Diffusion 模型, 而是通过深度学习找到了和你想要的形象一致的角色形象特征参数,通过这个小模型保存下来。这意味着,如果原模型里面这方面的训练缺失的,其实你很难通过嵌入让它“学会”,它并不能教会 Diffusion 模型渲染其没有见过的图像内容。
  • Dreambooth 是对整个神经网络所有层权重进行调整,会将输入的图像训练进 Stable Diffusion 模型,它的本质是先复制了源模型,在源模型的基础上做了微调(fine tunning)并独立形成了一个新模型,在它的基本上可以做任何事情。缺点是,训练它需要大量 VRAM, 目前经过调优后可以在 16GB 显存下完成训练。
  • LoRA 也是使用少量图片,但是它是训练单独的特定网络层的权重,是向原有的模型中插入新的网络层,这样就避免了去修改原有的模型参数,从而避免将整个模型进行拷贝的情况,同时其也优化了插入层的参数量,最终实现了一种很轻量化的模型调校方法, LoRA 生成的模型较小,训练速度快, 推理时需要 LoRA 模型+基础模型,LoRA 模型会替换基础模型的特定网络层,所以它的效果会依赖基础模型。
  • Hypernetworks 的训练原理与 LoRA 差不多,目前其并没有官方的文档说明,与 LoRA 不同的是,Hypernetwork 是一个单独的神经网络模型,该模型用于输出可以插入到原始 Diffusion 模型的中间层。 因此通过训练,我们将得到一个新的神经网络模型,该模型能够向原始 Diffusion 模型中插入合适的中间层及对应的参数,从而使输出图像与输入指令之间产生关联关系。

总儿言之,就训练时间与实用度而言,目前训练LoRA性价比更高,也是当前主流的训练方法。


选择最上面的LoRA选项卡,然后需要在页面 内配置一些参数。

比较关键的几个参数如下:

  • Model–>Pretrained model name or path: 这里配置你的SD基础模型,我们这里用的1.5,需要指定其路径;关于SD1.5模型的下载,在1.1步骤中也有响应链接;
  • Model–>Trained Model output name:给你的模型起个名字;
  • Model–>Image folder (containing training images subfolders):训练图像数据集的目录;
  • Folders–>Output directory for trained model:训练结果的保存路径;
  • Folders–>Logging directory (Optional. to enable logging and output Tensorboard log):训练日志的保存路径;

  • Dataset Preparation→Instance prompt:实例级别的提示词;
  • Dataset Preparation→Class prompt:类别提示词;
  • Dataset Preparation→Training images (directory containing the training images):原始训练图像路径(后续将生成新路径并填入下方 Model→Image folder 中);
  • Dataset Preparation→Repeats:每张图像的重复训练次数。

    这是在JupyterLab训练的结果

结果

赛博科技——kohya_ss

云端算力推荐一家价格便宜 ,稳定的平台。算力自由,4090卡时 1.38元

kohya_ss 总结

这篇文章主要介绍了 kohya_ss —— 一个专门用于 Stable Diffusion LoRA 微调训练 的工具,重点讲了本地部署蓝耘智算平台的云端一键使用方案。

工具概览

kohya_ss 是一个专门用于Stable Diffusion 模型微调的工具,核心功能是基于LoRA(低秩适应) 方法进行训练。它提供了图形化界面 (GUI),大幅降低了新手的使用门槛。整体上,它具有以下特点:

  • 轻量化:LoRA 插入少量参数层,不会修改原始模型,节省显存和存储空间。
  • 跨平台:支持 Windows、Linux、MacOS。
  • 简单流程:数据准备 → 参数设置 → 启动训练。

本地安装 vs 云端使用

本地安装(Windows)

  • 主要步骤包括:拉取仓库、配置虚拟环境、安装依赖、运行 setup.bat 并手动设置加速。
  • 训练时需注意:
    混合精度建议 bf16;
    注意力模式改为 sdpa;
    避免使用 8bit 优化器(会导致显存暴增)。
  • 优点:完全本地可控,适合长期学习和自定义环境。
  • 缺点:依赖硬件配置(显卡显存不足可能失败)。

云端使用(蓝耘风吟 kohya_ss-v2)

  • 提供现成的 Web 界面,用户只需注册、选择 GPU,即可一键开启训练。
  • 优点:免去环境配置,快速上手,适合临时或高算力需求场景。
  • 缺点:长期使用成本较高,需依赖平台算力服务。

Stable Diffusion 微调方法对比

方法原理优点缺点适用场景
Textual Inversion学习额外 embedding,不改原模型占用小,加载快难以学会模型未见过的内容定制 prompt 词汇
Dreambooth微调整个模型参数效果强大,可生成全新风格显存需求高(16G+),耗时长全面风格迁移
LoRA插入轻量层参数训练快,文件小,推理方便效果依赖基础模型主流方案,性价比最高
Hypernetworks独立网络插入中间层理论灵活官方支持少,使用较少研究或尝试性应用

LoRA 训练的关键参数

模型相关:

  • 预训练模型路径 (SD1.5/SDXL 等)
  • 输出模型名称
  • 输出目录、日志路径

数据集相关:

  • 训练图像目录
  • Instance prompt(实例提示词)
  • Class prompt(类别提示词)
  • Repeats(每张图的重复次数)

总结

整体来看,LoRA 是当前主流的 Stable Diffusion 微调方法,兼顾训练效率和实际效果。

  • 如果你有合适显卡:本地搭建 kohya_ss 环境,长期使用更灵活。
  • 如果你缺少算力或怕麻烦:蓝耘等云平台的风吟 kohya_ss-v2提供一站式训练,节省环境配置时间。

数据集相关:

  • 训练图像目录
  • Instance prompt(实例提示词)
  • Class prompt(类别提示词)
  • Repeats(每张图的重复次数)

换句话说:本地适合深度玩家,云端适合快速上手。

零基础如何高效学习大模型?

你是否懂 AI,是否具备利用大模型去开发应用能力,是否能够对大模型进行调优,将会是决定自己职业前景的重要参数。

为了帮助大家打破壁垒,快速了解大模型核心技术原理,学习相关大模型技术。从原理出发真正入局大模型。在这里我和鲁为民博士系统梳理大模型学习脉络,这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码免费领取🆓**⬇️⬇️⬇️

在这里插入图片描述

【大模型全套视频教程】

教程从当下的市场现状和趋势出发,分析各个岗位人才需求,带你充分了解自身情况,get 到适合自己的 AI 大模型入门学习路线。

从基础的 prompt 工程入手,逐步深入到 Agents,其中更是详细介绍了 LLM 最重要的编程框架 LangChain。最后把微调与预训练进行了对比介绍与分析。

同时课程详细介绍了AI大模型技能图谱知识树,规划属于你自己的大模型学习路线,并且专门提前收集了大家对大模型常见的疑问,集中解答所有疑惑!

在这里插入图片描述

深耕 AI 领域技术专家带你快速入门大模型

跟着行业技术专家免费学习的机会非常难得,相信跟着学习下来能够对大模型有更加深刻的认知和理解,也能真正利用起大模型,从而“弯道超车”,实现职业跃迁!

图片

【精选AI大模型权威PDF书籍/教程】

精心筛选的经典与前沿并重的电子书和教程合集,包含《深度学习》等一百多本书籍和讲义精要等材料。绝对是深入理解理论、夯实基础的不二之选。

在这里插入图片描述

【AI 大模型面试题 】

除了 AI 入门课程,我还给大家准备了非常全面的**「AI 大模型面试题」,**包括字节、腾讯等一线大厂的 AI 岗面经分享、LLMs、Transformer、RAG 面试真题等,帮你在面试大模型工作中更快一步。

【大厂 AI 岗位面经分享(92份)】

图片

【AI 大模型面试真题(102 道)】

图片

【LLMs 面试真题(97 道)】

图片

【640套 AI 大模型行业研究报告】

在这里插入图片描述

【AI大模型完整版学习路线图(2025版)】

明确学习方向,2025年 AI 要学什么,这一张图就够了!

img

👇👇点击下方卡片链接免费领取全部内容👇👇

在这里插入图片描述

抓住AI浪潮,重塑职业未来!

科技行业正处于深刻变革之中。英特尔等巨头近期进行结构性调整,缩减部分传统岗位,同时AI相关技术岗位(尤其是大模型方向)需求激增,已成为不争的事实。具备相关技能的人才在就业市场上正变得炙手可热。

行业趋势洞察:

  • 转型加速: 传统IT岗位面临转型压力,拥抱AI技术成为关键。
  • 人才争夺战: 拥有3-5年经验、扎实AI技术功底真实项目经验的工程师,在头部大厂及明星AI企业中的薪资竞争力显著提升(部分核心岗位可达较高水平)。
  • 门槛提高: “具备AI项目实操经验”正迅速成为简历筛选的重要标准,预计未来1-2年将成为普遍门槛。

与其观望,不如行动!

面对变革,主动学习、提升技能才是应对之道。掌握AI大模型核心原理、主流应用技术与项目实战经验,是抓住时代机遇、实现职业跃迁的关键一步。

在这里插入图片描述

01 为什么分享这份学习资料?

当前,我国在AI大模型领域的高质量人才供给仍显不足,行业亟需更多有志于此的专业力量加入。

因此,我们决定将这份精心整理的AI大模型学习资料,无偿分享给每一位真心渴望进入这个领域、愿意投入学习的伙伴!

我们希望能为你的学习之路提供一份助力。如果在学习过程中遇到技术问题,也欢迎交流探讨,我们乐于分享所知。

*02 这份资料的价值在哪里?*

专业背书,系统构建:

  • 本资料由我与鲁为民博士共同整理。鲁博士拥有清华大学学士美国加州理工学院博士学位,在人工智能领域造诣深厚:

    • 在IEEE Transactions等顶级学术期刊及国际会议发表论文超过50篇
    • 拥有多项中美发明专利。
    • 荣获吴文俊人工智能科学技术奖(中国人工智能领域重要奖项)。
  • 目前,我有幸与鲁博士共同进行人工智能相关研究。

在这里插入图片描述

内容实用,循序渐进:

  • 资料体系化覆盖了从基础概念入门核心技术进阶的知识点。

  • 包含丰富的视频教程实战项目案例,强调动手实践能力。

  • 无论你是初探AI领域的新手,还是已有一定技术基础希望深入大模型的学习者,这份资料都能为你提供系统性的学习路径和宝贵的实践参考助力你提升技术能力,向大模型相关岗位转型发展

    在这里插入图片描述在这里插入图片描述在这里插入图片描述

抓住机遇,开启你的AI学习之旅!

在这里插入图片描述

您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

<think>好的,我现在需要处理用户关于Kohya_SS的技术内容的问题。首先,用户提到了几个引用,其中引用[1]、[2]、[3]都涉及kohya_ss-docker项目,而引用[4]是关于知识图谱的,可能与当前问题关联不大。所以主要关注前三篇引用。 用户的问题是想了解或使用Kohya_SS相关的技术内容,特别是IT技术方面。根据提供的引用,kohya_ss-docker项目主要是将kohya_ss的训练WebUI适配到Linux系统,并利用Docker进行容器化部署。因此,回答需要围绕项目介绍、技术架构、使用指南和应用场景展开。 接下来,我需要确保回答结构清晰,分点说明。首先介绍项目背景,接着是技术架构中的关键点,比如Docker容器化、WebUI适配、硬件兼容性等。然后提供部署步骤,可能需要包括安装Docker、克隆仓库、配置环境等步骤。之后,讨论应用场景,比如模型微调本地训练、创意实验等。此外,用户示例中的相关问题部分需要生成相关问题,可能需要包括优化方法、常见问题、与Stable Diffusion的关系等。 需要注意的是,用户提供的引用中没有详细的技术步骤,比如具体的命令或配置文件,所以回答可能需要更一般化的指导,或者建议用户参考官方文档。同时,引用中的信息需要正确引用,比如在提到项目优势时标注对应的引用编号。 还要检查是否符合系统级指令:使用中文,数学公式正确(虽然这个问题可能不涉及数学公式),生成相关问题,结构清晰。另外,回答中引用的部分需要添加引用标识,例如[^1]、[^2]等。 现在组织内容: 1. 项目介绍:基于引用[1][2][3],说明kohya_ss-docker的作用,将WebUI适配Linux,利用Docker容器化,方便训练Stable Diffusion模型。 2. 技术架构:分点说明Docker容器化、WebUI适配、硬件兼容性、模块化设计,引用对应的引用来源。 3. 使用指南:分步骤说明安装Docker,克隆仓库,配置环境,启动容器,访问WebUI,可能结合引用中的信息,但具体命令可能需要通用步骤,因为引用中没有详细命令。 4. 应用场景:模型微调本地训练、创意实验、团队协作,引用相关部分。 5. 相关问题:生成与部署、优化、应用、比较相关的问题。 需要确保语言通顺,技术术语准确,并且每个引用只在相关部分末尾标注。例如,提到项目介绍时标注[^3],技术架构中的Docker部分标注[^2]等。 可能遇到的难点是引用信息较为笼统,缺乏具体的技术细节,因此在部署步骤部分可能需要更通用的指导,或者建议用户查阅官方文档。同时,需要确保生成的相关问题与Kohya_SS的技术内容相关,而不是泛泛的问题。 最后检查是否符合所有系统指令,特别是引用标识的正确添加和结构清晰。</think>### Kohya_SS技术解析与应用指南 Kohya_SS是一个专注于Stable Diffusion模型训练的框架,而`kohya_ss-docker`项目通过Docker容器化技术将其WebUI适配到Linux系统,简化了本地训练流程。以下从技术架构、部署方法和应用场景展开说明: --- #### 一、技术架构核心 1. **Docker容器化** 项目利用Docker将依赖环境(如Python库、CUDA驱动)封装为独立容器,避免系统环境冲突,同时支持快速部署和跨平台迁移。 数学公式示例:容器资源隔离性可表示为$$C = \{E, D, R\}$$,其中$E$为环境依赖,$D$为数据卷,$R$为资源限制。 2. **WebUI适配Linux** 原版kohya_ss的Web界面针对Windows优化,此项目通过调整系统调用和文件路径格式(如将`\`替换为`/`),使其兼容Linux的POSIX标准。 3. **硬件兼容性** 支持NVIDIA GPU加速,通过Docker的`--gpus all`参数调用CUDA库,提升训练效率。CPU模式下则自动降级为轻量级运算。 --- #### 二、部署步骤 1. **安装Docker与NVIDIA驱动** ```bash sudo apt-get install docker.io sudo apt-get install nvidia-container-toolkit ``` 2. **拉取项目代码** ```bash git clone https://github.com/your-repo/kohya_ss-docker.git ``` 3. **构建并启动容器** ```bash cd kohya_ss-docker docker-compose up --build ``` 4. **访问WebUI** 浏览器输入`http://localhost:7860`即可使用训练界面。 --- #### 三、典型应用场景 1. **模型微调** 用户可基于预训练的Stable Diffusion模型,注入自定义数据集(如特定画风图片),生成个性化AI模型。 2. **本地化创意实验** 开发者无需依赖云端算力,直接在本地硬件上测试提示词组合、LoRA参数等,降低试错成本。 3. **团队协作开发** Docker镜像支持导出分享,便于统一团队成员的训练环境。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员一粟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值