stable diffusion在server上的部署测试

本文详细记录了在Fedora Server 38上部署Stable Diffusion的全过程,包括Automatic1111和InvokeAI的对比、安装步骤、遇到的问题及解决办法。重点介绍了如何在Ubuntu环境下简化安装,并强调了模型导入、端口配置和Windows操作的注意事项。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

SD infinite canvas

Automatic1111 vs InvokeAI

  • Automatic1111 vs InvokeAI - pros and cons
  • stablediffusion-infinity
    该repo的问题是已经2年没更新,它的依赖有问题,运行也有问题
    TypeError: EventListener._setup.<locals>.event_trigger() got an unexpected keyword argument '_js'
    这个我解决不了解决不了就删除这几行然后还有transformers版本问题(不楞subfolder)stabilityai/sd-vae-ft-mse does not appear to have a file named config.json.
    从评论来说,InvokeAI的操作更简单,所以先试一下
    qnmd invoke,还是automatic1111适合劳资
    qnmd automatic1111根本不好弄outpainting

install

Prerequisites

  • running Fedora Linux 38 (Server Edition)
    • gpu: 3060 laptop 12G
    • ram: 16g (估计8G够了)
    • disk: 256G (模型多就自己加)
    • Software updates就当看不见,千万别更新
  • nvautoinstall
  • NVIDIA CONTAINER TOOLKIT
    • curl -s -L https
### Stable Diffusion 3.5 Server Deployment Guide 部署 Stable Diffusion 3.5 到服务器涉及多个步骤,包括设置计算资源、安装依赖项以及配置模型运行环境。以下是详细的指南: #### 计算资源配置 为了支持 Stable Diffusion 的高性能需求,建议使用配备 NVIDIA GPU 的云实例或本地服务器。AWS 是一种常见的选择,因为其提供了强大的 GPU 实例类型(如 p3 或 g4dn)。通过使用 **Stable Diffusion AWS Extension**[^1],可以简化云端模型训练和推理环境的搭建过程。 #### 安装依赖项 在服务器上成功启动后,需确保已安装必要的软件包和库文件。以下是一个典型的 Python 环境构建流程: ```bash sudo apt update && sudo apt upgrade -y sudo apt install git python3-pip ffmpeg libsm6 libxext6 -y pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 pip3 install diffusers transformers accelerate safetensors gradio ``` 上述命令会安装 PyTorch 和其他必需的机器学习框架版本,同时也会引入 Gradio 库用于快速开发交互界面。 #### 配置模型服务端口 完成基础环境准备之后,需要定义一个 Web API 来暴露扩散模型的服务功能。下面展示了一个简单的 Flask 示例程序片段: ```python from flask import Flask, request, jsonify import torch from diffusers import StableDiffusionPipeline app = Flask(__name__) model_id = "runwayml/stable-diffusion-v1-5" pipe = StableDiffusionPipeline.from_pretrained(model_id).to("cuda") @app.route('/generate', methods=['POST']) def generate_image(): data = request.json prompt_text = data['prompt'] image = pipe(prompt_text).images[0] image.save('output.png') return jsonify({"status": "success", "message": "Image generated."}) if __name__ == '__main__': app.run(host='0.0.0.0', port=7860) ``` 此脚本监听 `http://<server-ip>:7860/generate` 地址上的 POST 请求,并返回由输入文本生成的新图片路径信息[^3]。 #### 测试与优化 最后一步是对整个系统进行全面测试,验证各个组件之间的兼容性并调整参数以达到最佳性能表现。如果发现某些环节存在瓶颈,则可能需要重新审视硬件选型或者进一步调优算法实现方式。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值