StableDiffusion教程(3) - 模型安装

StableDiffusion模型安装

1. 搜索模型

打开C站或者LibLibAI模型站下载模型

C站地址:https://civitai.com/

LibLibAI模型站地址:LiblibAi - 中国领先原创AI模型分享社区

2. 下载模型

在模型详情页面,点击下载即可下载模型

3. 把模型放进Stable Diffusion

根据模型详情页面的模型类型,把模型放到对应的目录。

模型类型对应的目录请参考:https://www.yuque.com/a-chao/sd/iihqt041q1lti87q

也可以使用启动器,快捷打开模型文件夹:

### Stable Diffusion ControlNet 模型安装教程 #### 准备工作 为了成功安装并使用ControlNet插件,需先确认Stable Diffusion Web UI环境已正确搭建完毕。此过程涉及从指定仓库克隆必要的文件和依赖项[^1]。 #### 下载ControlNet插件 访问官方GitHub页面 `https://github.com/Mikubill/sd-webui-controlnet` 并按照说明操作。通常情况下,可以通过执行以下命令来获取最新版本的ControlNet扩展: ```bash git clone https://github.com/Mikubill/sd-webui-controlnet extensions/sd-webui-controlnet ``` 这一步会将ControlNet插件放置到Web UI的适当目录中以便加载。 #### 安装所需模型与预处理器 除了基础插件外,还需要额外下载对应的 **ControlNet模型** 和 **预处理模块** 文件。这些资源可以从多个公开渠道获得,例如Hugging Face或其他可信站点。具体路径如下: - 前往链接地址找到对应模型名称(如 `control_v11p_sd15_canny.safetensors`),将其保存至本地磁盘中的特定位置。 - 预处理器部分则无需手动干预,在运行脚本时自动匹配相应功能[^2]。 #### 启动配置验证 当所有组件均准备就绪之后,重新启动Stable Diffusion应用程序以应用更改。此时应该可以在界面选项卡里发现新增加的功能入口——即“ControlNet”。如果一切正常,则可以尝试上传引导图片来进行测试生成任务[^3]。 ```python from diffusers import StableDiffusionControlNetPipeline, ControlNetModel import torch # 加载ControlNet权重 controlnet = ControlNetModel.from_pretrained("lllyasviel/control_v11p_sd15_canny", torch_dtype=torch.float16) # 初始化pipeline管道对象 pipe = StableDiffusionControlNetPipeline.from_pretrained( "runwayml/stable-diffusion-v1-5", controlnet=controlnet, safety_checker=None, torch_dtype=torch.float16 ).to("cuda") result_image = pipe(prompt="a photo of a cat").images[0] result_image.save("output.png") ``` 以上代码片段展示了如何利用Python API调用ControlNet实现图像编辑效果的一个简单例子。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员阿超的博客

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值