【Stable Diffusion】大模型/Lora触发词插件lora-prompt-tool

前言

又是一个神器,小伙伴们搬好小板凳,准备好我要开始了。

我们知道,在很多模型和lora使用的时候,是需要填写触发词的。比如这个盲盒lora,提示词就是“full body, chibi”,需要把这些触发词放到正向提示词里面才能达到想要的效果。

举个例子,当我们只引用lora,而不填入触发词的时候是这样的。

当我们填入特定的触发词之后,就达到了这个lora该有的效果。所以,有的时候你的成图效果不理想,有可能是因为你没有填写模型或lora的触发词。

但是,当你的模型和lora越来越多的时候,你还能记得它们的触发词吗?那肯定是不可能的。

这时候就需要我们的插件登场了,它就是——lora-prompt-tool

安装方式就是在扩展面板中点击“从网址安装”,然后输入以下地址https://github.com/a2569875/lora-prompt-tool,可以直接安装。

或者将我提供的插件文件夹复制到这个目录下“……\sd-webui-aki-v4\extensions”。

所有的AI设计工具,安装包、模型和插件,都已经整理好了,👇获取~

在这里插入图片描述

安装完成后,重启webUI,就装好了。

接下来,在你想要使用的lora上面点击右键,就可以看到它的触发词了,直接点击就能加载到正向提示词当中。

当然,并不是所有的模型或者lora都有触发词,这个时候你也可以手动编辑,给它加上你自定义的触发词。

不过,这些还不是这个插件最厉害的功能。

当我们浏览C站上这个模型/lora的主页的时候,是可以看到很多官方图的。

我们之前安装的C站助手插件,是可以将这张封面图的提示词一键导入到SD里面,这样可以帮助我们快速得到这个官方图片的效果。

而当我们安装了这个插件之后,我们就可以直接从这里看到官方的其他例图,并且可以一键将这张图所有的提示词和设置参数全部拷贝到SD中。

这样就能生成和官方图片差不多的效果了,大模型需要你自己选择好。当然这个操作的目的不是让你抄袭别人的图片,而是可以更好的学习到一些关键的提示词写法,达到事半功倍的效果。

以上就是关于大模型/Lora触发词插件lora-prompt-tool的介绍,有了它之后,我们就能更轻松的使用模型和lora了。

但由于AIGC刚刚爆火,网上相关内容的文章博客五花八门、良莠不齐。要么杂乱、零散、碎片化,看着看着就衔接不上了,要么内容质量太浅,学不到干货。

这里分享给大家一份Adobe大神整理的《AIGC全家桶学习笔记》,相信大家会对AIGC有着更深入、更系统的理解。

有需要的朋友,可以点击下方免费领取!
在这里插入图片描述

AIGC所有方向的学习路线思维导图

这里为大家提供了总的路线图。它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。如果下面这个学习路线能帮助大家将AI利用到自身工作上去,那么我的使命也就完成了:
在这里插入图片描述

AIGC工具库

AIGC工具库是一个利用人工智能技术来生成应用程序的代码和内容的工具集合,通过使用AIGC工具库,能更加快速,准确的辅助我们学习AIGC
在这里插入图片描述

有需要的朋友,可以点击下方卡片免费领取!
在这里插入图片描述

精品AIGC学习书籍手册

书籍阅读永不过时,阅读AIGC经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验,结合自身案例融会贯通。

在这里插入图片描述

AI绘画视频合集

我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,科学有趣才能更方便的学习下去。

在这里插入图片描述

### 如何在 Stable Diffusion 中加载和应用 LoRA 模型 #### 加载 LoRA 模型进行推理 为了在 Stable Diffusion 中使用预训练好的 LoRA 模型进行图像生成,通常需要通过特定接口加载这些模型。具体操作如下: 对于基于 Python 的实现方式,在调用 `diffusers` 库中的 `StableDiffusionPipeline` 类创建管道实例时,可以通过传递额外的关键字参数来指定要使用的 LoRA 权重文件路径。 ```python from diffusers import StableDiffusionPipeline, EulerAncestralDiscreteScheduler import torch model_id = "runwayml/stable-diffusion-v1-5" lora_path = "./path_to_your_lora_weight.safetensors" pipe = StableDiffusionPipeline.from_pretrained(model_id, torch_dtype=torch.float16).to("cuda") # Load the LoRA weights into pipeline pipe.unet.load_attn_procs(lora_path) prompt = "A fantasy landscape with a castle on top of a mountain." image = pipe(prompt=prompt).images[0] image.show() ``` 这段代码展示了如何利用 Hugging Face 提供的工具链快速集成并测试自定义 LoRA 模型的效果[^1]。 #### 使用 LoRA 进行微调训练 当希望进一步优化现有的 LoRA 或者针对特定领域定制化开发新的 LoRA 时,则涉及到训练流程。这里介绍一种较为常见的做法——即采用 DreamBooth 方法结合 LoRA 技术来进行高效的小样本学习。 首先准备一组高质量的目标风格样例图集作为正向引导数据;其次设置好负向提示帮助排除不想要的结果特征。接着按照官方文档指导配置环境变量与超参选项,并启动训练脚本完成整个过程[^2]。 值得注意的是,在选择初始的基础模型(底模)方面建议优先考虑那些广泛认可的经典版本而非经过多次迭代改进后的变体版本,因为后者可能会影响最终产出物的质量泛化能力[^4]。 最后值得一提的是,一旦完成了满意的 LoRA 训练成果之后还可以将其权重无缝融入到原始 SD 架构之中形成一体化的新版扩散网络结构以便于后续维护管理以及实际应用场景下的部署实施工作[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值