本地部署 Stable Diffusion:零基础搭建 AI文生图模型

该文章已生成可运行项目,

本地部署 Stable Diffusion:零基础搭建 AI 文生图系统

Stable Diffusion 是一款强大的开源文生图(Text-to-Image)AI 模型,可以本地运行,无需联网或付费就能生成高质量图像。相比 Midjourney、DALL·E 等云服务,Stable Diffusion 更自由、更可控。

这篇文章将手把手教你如何使用 Stable Diffusion WebUI(AUTOMATIC1111) 在本地搭建一个高效、可定制的 AI 画图系统,适合 AI 爱好者、程序员和设计师。


✅ 目录

  1. 为什么选择 Stable Diffusion?
  2. 环境准备:硬件 & 软件
  3. 安装与部署 WebUI
  4. 下载模型与生成图片
  5. 插件扩展推荐
  6. 常见问题与优化建议
  7. 总结与资源推荐

1️⃣ 为什么选择 Stable Diffusion?

  • 🆓 免费开源,可本地运行,无版权限制
  • 🖼️ 支持高质量图像生成,多种风格切换
  • 🔁 支持 LoRA、ControlNet、DreamBooth 等进阶功能
  • 🌍 社区活跃,模型与插件丰富

2️⃣ 环境准备

硬件要求

项目推荐配置
操作系统Windows / macOS / Linux
显卡NVIDIA 显卡(≥6GB 显存)
内存≥16GB 推荐
硬盘≥10GB 可用空间(模型文件较大)

💡 AMD 显卡也可运行,但需额外配置,如 ROCm 支持。

软件环境

  • Python 3.10(强烈建议)
  • Git
  • 推荐使用 Anaconda 或 virtualenv 创建独立环境

3️⃣ 安装 Stable Diffusion WebUI(AUTOMATIC1111)

第一步:克隆项目

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

第二步:准备模型(权重)

下载模型权重(.ckpt 或 .safetensors 格式)并放入以下目录:

stable-diffusion-webui/models/Stable-diffusion/

常用模型:

v1.5 官方基础模型:https://huggingface.co/runwayml/stable-diffusion-v1-5

自定义模型网站:https://civitai.com

第三步:启动 WebUI

推荐参数(减少显存占用)

python launch.py --xformers --medvram --precision full

默认本地地址:http://127.0.0.1:7860

🌐 若需外部设备访问,添加 --listen 参数。


4️⃣ 生成图片:初次体验

访问 WebUI 后,直接输入提示词即可:

A fantasy landscape, mountain, lake, sunrise, ultra-detailed, 8k

点击“Generate”后,几秒内即可看到生成图像!

图片


总结 & 推荐资源

Stable Diffusion 是目前最强大的本地 AI 画图工具之一。通过 WebUI,你可以非常容易地尝试各种图像创作风格,还能扩展训练自己的人物风格。还有一些其他模型没有配置,等回头配置完再更新。


🧾 示例生成图(Prompt)

Prompt:
masterpiece, best quality, ultra-detailed, cyberpunk girl, neon background, glowing eyes, wearing futuristic armor, 8k resolution

(本图可替换为你自己生成的图)


本文章已经生成可运行项目
### DeepSeek片生成模型全本地部署方法 对于希望在本地环境中部署DeepSeek的片生成模型的情况,可以遵循官方提供的指南来完成这一过程[^1]。通常来说,这样的部署涉及几个重要的方面。 #### 准备环境 确保拥有支持CUDA计算的NVIDIA GPU设备以及安装好相应的驱动程序。接着需要配置Python开发环境,推荐版本为3.8以上,并通过pip工具或者Anaconda管理依赖包。此外,还需确认已安装Docker及其Compose插件,因为容器技术有助于简化跨平台的一致性和隔离性问题。 #### 获取镜像与资源文件 访问DeepSeek官方网站获取最新的docker镜像链接和其他必要的资源配置文档。按照指引下载预训练好的权重参数、配置模板以及其他辅助脚本到指定目录下保存备用。 #### 修改配置项 打开项目根路径下的`config.yaml`文件进行编辑调整,主要关注以下几个部分: - `gpu_ids`: 设置可用GPU ID列表,默认为空表示仅使用CPU运算; - `model_name_or_path`: 指定加载的具体模型名称或离线存储位置; - `output_dir`: 定义推理结果输出的目标地址; ```yaml # config.yaml example snippet gpu_ids: "0,1" model_name_or_path: "./models/image-generation/" output_dir: "/path/to/output/folder" ``` #### 启动服务端口映射 利用命令行启动带有特定端口号转发规则的服务实例,以便后续能够远程调用API接口执行像生成功能: ```bash sudo docker-compose up --build -d ``` 此时应该可以在浏览器中输入http://localhost:{port}/docs查看Swagger UI界面并测试各项功能是否正常工作了。 #### 验证部署效果 最后一步就是验证整个流程是否顺利结束。可以通过编写简单的客户端代码发起HTTP请求向服务器传递提示词(prompt),等待返回处理后的二进制流数据再解码显示出来作为最终产物。 ```python import requests from PIL import Image from io import BytesIO response = requests.post( url="http://localhost:{port}/generate", json={"prompt": "a cute cat"} ) img = Image.open(BytesIO(response.content)) img.show() ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值