大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型

注册算力平台(驱动云平台)

1.平台注册

平台注册链接:
https://growthdata.virtaicloud.com/t/SA

2.查看算力

注册完成后,点击右上角:费用中心,可查看领取的算力。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

3.进入平台中心

https://platform.virtaicloud.com/

部署ChatGLM3-6B模型

ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。
推理速度比上一代提高了很多,虽然本教程有两种启动方式,但教程作者强烈推荐使用streamlit体验,效果极佳。

1.创建项目

  • 创建好账号之后,进入自己的空间,点击右上角的创建项目。

在这里插入图片描述

  • 给项目起一个你喜欢的名称,选择添加镜像
    在这里插入图片描述
  • 镜像选择pytorch2.0.1,Conda3.9
    在这里插入图片描述
  • 选择预训练模型,点击公开,选择不要葱姜蒜上传的这个ChtaGLM3-6B模型。
    在这里插入图片描述
  • 都选完之后,点击右下角的创建,代码选择暂不上传。待会直接clone代码。
    在这里插入图片描述
  • 点击运行代码
    在这里插入图片描述
  • 资源配置选择:B1.large, 24G的显存足够加载模型了。其他的不需要设置,然后点击右下角的开始运行。
    在这里插入图片描述

2.配置环境

  • 等右边两个工具全部加载完毕之后,再点击JupyterLab进入开发环境~

在这里插入图片描述

  • 进入界面之后是这样的,然后点击这个小加号。
    在这里插入图片描述
  • 点击t
构建和部署 `stable-diffusion-webui` 模型涉及多个步骤,包括环境准备、模型下载、文件存放路径配置以及服务启动。以下是详细的流程说明: ### 环境准备 在开始之前,请确保系统中已经安装了以下组件: - **Python**(建议版本为 3.8 或更高) - **Git** - **CUDA Toolkit**(如果使用 NVIDIA GPU) - **Docker**(可选,用于容器化部署) 此外,还需安装必要的依赖库,例如 `PyTorch` 和 `transformers` 等。 ### 下载 stable-diffusion-webui 可以通过克隆官方仓库来获取 `stable-diffusion-webui` 的源码: ```bash git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui ``` ### 模型文件存放路径 为了确保模型能够正常加载,需要将不同类型的模型文件放置到指定的目录中: - **LoRA 模型**:`/root/stable-diffusion-webui/models/Lora/` - **Checkpoints 模型**:`/root/stable-diffusion-webui/models/Stable-diffusion/` - **ControlNet 模型**:`/root/stable-diffusion-webui/models/ControlNet/` - **Embeddings 模型**:`/root/stable-diffusion-webui/embeddings/` - **Hypernetworks 模型**:`/root/stable-diffusion-webui/models/hypernetworks/` - **VAE 模型**:`/root/stable-diffusion-webui/models/VAE/` 每次添加新模型后,都需要重启 `stable-diffusion-webui` 服务以使更改生效 [^1]。 ### 部署方式 #### 使用 Docker 部署 可以使用 Docker 来简化部署过程,并通过挂载卷的方式将本地目录映射到容器内部: ```bash docker run -it -d --name stable-diffusion \ -p 7860:7860 \ --gpus all \ --network host \ -v /data/stable-diffusion-webui/openai:/app/stable-diffusion-webui/openai \ -v /data/stable-diffusion-webui/models:/app/stable-diffusion-webui/models \ -v /data/stable-diffusion-webui/outputs:/app/stable-diffusion-webui/outputs \ --rm registry.example.com/stable-diffusion-webui:latest-cuda \ bash webui.sh --share --listen --gradio-auth username:password ``` 此命令会启动个包含所有必要依赖的 Docker 容器,并将模型、输出等目录映射到宿主机上 [^2]。 #### 手动部署(Ubuntu) 如果你选择手动部署,可以按照以下步骤操作: 1. 解压模型文件: ```bash tar -xvf models--bert-base-uncased.tar.gz -C ~/.cache/huggingface/hub/ ``` 2. 进入项目目录并运行启动脚本: ```bash cd stable-diffusion-webui ./webui.sh ``` 该脚本会自动检测并安装所需的依赖项,并启动 Web UI 服务 [^3]。 ### 启动服务 无论是通过 Docker 还是手动方式,启动服务后都可以通过浏览器访问 `http://localhost:7860` 来打开 `stable-diffusion-webui` 的界面。 ###
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值