
StableDiffusion
文章平均质量分 84
武子康
Hi, I'm Zikang / 武子康
好奇心驱动的探索者 | INTJ / INFJ
我热爱探索一切值得深究的事物。对技术、成长、效率、认知、人生有着持续的好奇心和行动力。
坚信「飞轮效应」,相信每一次微小的积累,终将带来深远的改变。
展开
-
StableDiffusion-04 (炼丹篇) 15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!
按照我们上节的情况,我们打开:`http://server:6006`页面,请图文对比着一起配置。由于我们是学习,所以按照图中可以跑起来是第一要义,不用调整太多了。● Model-Pretrained model name or path: 基础模型的位置,如果没有将下载● Model-Trained Model output name: 输出的模型名称● Model-Image folder: 图片的上一级目录,(不要写到30_sakura这一级)● Folders原创 2024-04-17 09:14:36 · 2155 阅读 · 0 评论 -
StableDiffusion-03 (准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!
本篇是环境的安装(Python、CUDA、GIT、安装依赖、项目启动)、图片的准备(下载、裁切、打标签)、(准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我! 从小就非常喜欢小樱!从小樱的动画到动漫书我都看了个遍,包括C妈几年前更新了(哇这么久了都)Clear Card。直到最近C妈终于更新完了Clear Card的漫画,听说好像新的视频在筹备了,我好期待!!!原创 2024-04-16 10:14:36 · 2076 阅读 · 0 评论 -
StableDiffusion-02 LoRA上手使用实测 尝试生成图片 使用多个LoRA 调整LoRA效果 10分钟上手 多图
LoRA上手使用实测 尝试生成图片 使用多个LoRA 调整LoRA效果 10分钟上手 多图,`Stable Diffusion`中的`LoRA(Low-Rank Adaptation,低秩自适应)`是一种针对大型模型微调的技术,旨在加速模型的训练过程并显著减少模型文件的存储成本。这项技术通过冻结原有基础模型的权重层并重新计算,实现了快速的训练速度和较小的模型文件大小,从而提高了训练效率和降低了存储成本。原创 2024-04-16 09:12:37 · 1397 阅读 · 0 评论 -
StableDiffusion-01本地服务器部署服务 10分钟上手 底显存 中等显存机器 加载模型测试效果 附带安装指令 多显卡 2070Super 8GB*2
StableDiffusion 本地服务器部署服务 10分钟上手 底显存 中等显存机器 加载模型测试效果 附带安装指令 多显卡 2070Super 8GB*2原创 2024-04-15 10:05:34 · 1765 阅读 · 0 评论