lora训练模型 打造个人IP

准备工作

  • 下载秋叶炼丹器
  • 整理自己的照片
  • 下载底膜 https://rentry.org/lycoris-experiments
  • 在这里插入图片描述

实操步骤

  1. 解压整合包 lora-scripts,先点击“更新”

在这里插入图片描述

  1. 训练图片收集

比如要训练一个自己头像的模型,就可以拍一些自己的照片(20-50张,最少15张),要求画质清晰,脸部轮廓清楚,背景较为简单的照片。

建议整理成512*512大小 , 推荐工具
在这里插入图片描述

  1. 使用WD1,4 标签器的预处理功能进行图片的预处理
    将准备好的图片,放入目录 train/XXX[自定义]/ [数值, 图片数量]_XXX[自定义]
    在这里插入图片描述

这里可以根据自己的情况设置不同的宽高,以及相关的设置项,设置完成之后,点击“预处理”就可以进行图像的预处理了,预处理进度会在右侧显示。处理完成之后的文件夹内文件统一转成了512*512的png格式,并且多了一个txt文件,这个文件里面就是图片内容的提示词。

  1. 点击启动, 对照片打标签
    在这里插入图片描述

执行完毕后, 照片文件夹会自动生成txt文件
在这里插入图片描述
5. 使用lora训练-新手模式
在这里插入图片描述
在这里插入图片描述

lora-scripts环境搭建

若新手从零开始, 请参考本专栏基础知识, 此处简略说明下安装环境

  1. 先将lora-scripts项目(
GitHub - Akegarasu/lora-scripts: LoRA training scripts use kohya-ss's trainer, for diffusion model.
https://github.com/Akegarasu/lora-scripts

)克隆到本地,可以放在stable-diffusion下面,也可以放在其他目录下面。

  1. 克隆完之后,进入该目录删除sd-scripts文件夹,然后克隆sd-scripts项目(
GitHub - kohya-ss/sd-scripts
https://github.com/kohya-ss/sd-scripts

)到该目录下。

  1. 安装环境,有两种方式。一种是在lora-scripts下直接执行./install.ps1命令,自动安装相关环境。另外一种是进入到lora-scripts/sd-scripts中,使用以下命令进行安装(可以参考该项目下的说明文档)。
##  创建并激活虚拟环境
python -m venv venv
.\venv\Scripts\activate
 
## 安装cuda
pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116
 
## 安装相关包,可以加上 -i 国内源 快一点儿!
pip install --upgrade -r requirements.txt
 
## 安装xformers,这里可以先用下载工具把文件下载下来,用本地路径安装,不然网络不稳定很容易中断
pip install -U -I --no-deps https://github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/f/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl
 
## 复制相关文件到虚拟环境
cp .\bitsandbytes_windows\*.dll .\venv\Lib\site-packages\bitsandbytes\
cp .\bitsandbytes_windows\cextension.py .\venv\Lib\site-packages\bitsandbytes\cextension.py
cp .\bitsandbytes_windows\main.py .\venv\Lib\site-packages\bitsandbytes\cuda_setup\main.py
 
## 加速器配置
accelerate config

这里要注意的是,cuda和xformers的版本这里是对应好的,如果版本不对会报错。另外,后面的相关操作都是在venv的虚拟环境下操作的,所以如果重新进入的话,需要重新激活虚拟环境。

accelerate config这个命令进入之后,对于多项选择的可以用上下键,或者使用(0,1,2…)去选择相关的选项,yes or no的直接输入然后回车,大部分配置项选择默认就可以了,我这里没有使用DeepSpeed,所以这一项,我选择的No,根据自己的实际情况去选就行了,不知道啥意思的可以挨个查下。

  1. 准备训练

训练有两种方式,方式一:直接执行训练命令(执行 ./train.ps1),方式二:使用webui的方式(执行 ./run_gui.ps1 打开web页面)。

(1)将预处理过的图片目录(qige)拷贝到lora-scripts/train/qg_imgs目录下(train目录不存在可以新建一个,这里要注意,图片和文本存放的最终目录是lora-scripts/train/qg_imgs/qige)

(2)修改配置。

方式一,直接修改train.ps1文件,修改以下配置

## Train data path | 设置训练用模型、图片
$pretrained_model = "./sd-models/chilloutmix_NiPrunedFp32Fix.safetensors" # base model path | 底模路径
$train_data_dir = "./train/qg_imgs" # train dataset path | 训练数据集路径
 
 
 
## Train related params | 训练相关参数
$resolution = "512,512" # image resolution w,h. 图片分辨率,宽,高。支持非正方形,但必须是 64 倍数。
$batch_size = 2 # batch size
$max_train_epoches = 20 # max train epoches | 最大训练 epoch
$save_every_n_epochs = 2 # save every n epochs | 每 N 个 epoch 保存一次
 
 
 
$output_name = "qg" # output model name | 模型保存名称

chilloutmix_NiPrunedFp32Fix.safetensors 的下载地址为:

naonovn/chilloutmix_NiPrunedFp32Fix at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
https://huggingface.co/naonovn/chilloutmix_NiPrunedFp32Fix/tree/main

也可以使用其他的模型,上面的模型地址也可以改成stable-diffusion中已有的模型路径,可以节约点儿磁盘空间,毕竟单个模型都是好几个G。另外这个目录设置要注意,不是到最后那一层的目录,是到最后一层的上一层目录。

方式二,直接在webui上设置,比较直观

在这里插入图片描述

  1. 开始训练
    本文最开始 的几个步骤

如果使用的是方式二,可以直接点击右侧的“直接开始训练”按钮就可以开始训练,与方式一一样,相关的输出信息可以在命令行终端上看到。一般不会一下就成功,可以根据相关的报错信息进行修改。我用的是3060的显卡,之前将batch_size和max_train_epoches设置得较大,中途会出现显存不够用的情况,然后逐步调整,才最终跑完。训练的过程见下图。

在这里插入图片描述

最后会在output目录中,输出训练好的模型文件。

  1. 模型使用

将训练好的模型.safetensors文件拷贝到stable-diffusion文件夹下的models/lora/文件夹下,在提示词中加入lora:训练的模型:权重就可以生成自己的图像了,效果还行。如果用更多图片,有更强悍的机器,训练出来的效果应该会更好…

<think>好的,用户对使用Stable Diffusion、ComfyUI、DeepSeek以及开源大模型和LoRA模型来打造虚拟偶像的方案感兴趣,需要详细的执行策略和方案。首先,我需要确定用户的技术背景,可能需要从基础工具介绍开始。然后,按照文生图、图生图、图生视频的路径分步骤规划。 用户可能已经了解一些工具,但为了全面性,还是需要简要说明每个工具的作用,比如Stable Diffusion用于生成图像,ComfyUI作为更灵活的界面,DeepSeek可能用于文本生成或其他部分。LoRA模型的应用需要解释如何微调模型以适应特定风格。 接下来,执行策略需要分阶段:前期准备、核心流程、进阶优化。前期准备包括硬件需求、软件安装、模型选择。核心流程分文生图、图生图、图生视频,每个步骤需要详细参数设置和示例。进阶优化可能涉及LoRA训练、多模型融合、迭代优化。 需要注意用户可能对技术细节不熟悉,比如LoRA的训练步骤,需要给出具体的数据准备和训练命令示例。同时,视频生成部分可能涉及帧一致性,需要推荐工具和技巧。 还要考虑用户的实际操作中可能遇到的问题,比如硬件不足,可能需要推荐云服务。另外,版权问题需要提醒使用合规数据集。 最后,确保整个方案结构清晰,步骤明确,用户能逐步跟随操作。可能需要检查每个工具的兼容性,确保流程可行。总结部分要强调持续迭代和社区资源的重要性,帮助用户长期维护虚拟偶像项目。</think>以下是为您规划的虚拟偶像孵化专业执行策略与方案(工具链:Stable Diffusion + ComfyUI + DeepSeek + LoRA): 一、前期准备阶段 $$ \text{硬件配置} \geq 1 \times RTX3090, \quad \text{显存} \geq 16GB, \quad \text{存储空间} \geq 500GB $$ 1. 软件环境搭建: - 安装Stable Diffusion WebUI(推荐v1.8+) - 部署ComfyUI可视化节点系统 - 配置DeepSeek-7B开源大模型环境 - 准备NSFW检测模块(确保内容合规) 2. 模型资源库建设: ```markdown | 模型类型 | 推荐模型 | 应用场景 | |----------------|-----------------------------------|---------------------| | 基础大模型 | SDXL 1.0/Realistic Vision 5.1 | 主体生成 | | LoRA模型 | KoreanDollLikeness/JapaneseStyle | 风格微调 | | 控制网 | OpenPose/Depth | 姿势控制 | | 视频模型 | AnimateDiff-Lightning | 视频生成 | ``` 二、核心执行流程 (一)文生图阶段(Text-to-Image) $$ prompt = \alpha \cdot [主体描述] + \beta \cdot [风格参数] + \gamma \cdot [质量参数] $$ 1. 使用DeepSeek生成描述词: ```python from deepseek import generate prompt = generate("18岁赛博朋克风格虚拟偶像,霓虹发色,机械义肢,未来感服装") ``` 2. Stable Diffusion参数设置: ```yaml sampler: DPM++ 2M Karras steps: 28-35 cfg scale: 7-9 hires.fix: 4x-UltraSharp upscaler ``` 3. ComfyUI节点配置: ```mermaid graph LR A[文本输入] --> B[CLIP编码] B --> C[基础模型] C --> D[LoRA注入] D --> E[ControlNet约束] E --> F[高分辨率修复] ``` (二)图生图阶段(Img2Img) $$ I_{output} = f(I_{input}, \Delta_{prompt}, \eta_{denoise}) $$ 1. 迭代优化流程: - 初始生成图 → OpenPose提取骨架 → 重绘非结构部分 - 使用InPaint修复细节(推荐lama处理器) - 多视图生成(Front/Side/Back)确保三维一致性 2. 关键参数设置: ```python denoising_strength = 0.35-0.6 # 保持主体稳定 mask_blur = 4-8 # 边缘过渡自然 ``` (三)图生视频阶段(Img2Video) $$ V_{output} = \sum_{t=1}^{n} \phi(I_t, M_{motion}) $$ 1. 使用AnimateDiff流程: ```python from animatediff import pipeline pipe = pipeline("sd-v1-5", motion_module="mm_sd_v15_v2") frames = pipe(prompt, init_image, num_frames=24) ``` 2. 视频优化技巧: - 添加TemporalNet保持时序一致性 - 使用EBsynth进行风格插值 - 最后用DAIN进行60fps插帧 三、进阶优化方案 (一)LoRA模型训练 $$ \theta_{new} = \theta_{base} + \Delta\theta_{LoRA} $$ 1. 数据集准备: - 收集200+张统一风格图像 - 使用WD1.4打标工具自动标注 - 分辨率标准化为1024x1024 2. 训练命令示例: ```bash accelerate launch train_dreambooth_lora.py --pretrained_model_name="stabilityai/stable-diffusion-xl-base-1.0" --instance_data_dir="/path/to/images" --output_dir="/save/lora" ``` (二)多模型融合策略 $$ I_{final} = \omega_1M_{base} + \omega_2M_{style} + \omega_3M_{detail} $$ 1. 分层控制技巧: - Base Model权重0.7 + Style LoRA 0.3 - 使用Regional Prompter分区域控制 - 通过IP-Adapter实现参考图特征注入 四、执行路线图 ```gantt title 虚拟偶像开发周期 section 基础建设 硬件配置 :done, des1, 2024-03-01, 7d 模型收集 :active, des2, 2024-03-08, 5d section 核心开发 角色原型设计 : des3, 2024-03-13, 14d 视频动态化 : des4, 2024-03-27, 21d section 优化迭代 表情控制系统 : des5, 2024-04-17, 14d 多语言适配 : des6, 2024-05-01, 14d ``` 五、风险控制方案 1. 版权合规: - 使用CC0/LAION数据集 - 添加数字水印(推荐InvisibleWatermark) 2. 质量保障: - 建立自动化评估体系(CLIP score ≥ 28) - 人工审核三审机制 建议每周进行模型微调迭代,持续收集用户反馈数据优化prompt engineering。可通过CivitAI等平台获取最新模型资源,同时建议建立本地知识库保存优质工作流配置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

赤胜骄阳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值