ChatGLM3-6b部署中的坑

ChatGLM3-6b部署中的坑

本地部署

本地部署采用的是支持CPU模式的ChatGLM3-6b的方式,即通过xinference+chatglm3-cpp的方式。我的笔记本配置为:i7-U8565U+16G内存+128MB的核显

一. 创建环境

  1. 使用virtualvenv建立python虚拟环境
python -m venv venv
  1. 安装torch

注意:现在执行的python为创建的虚拟环境下的python.exe所在的位置的程序

.\.venv\Scripts\python.exe -m pip install torch==2.0.0+cpu torchvision torchaudio -f https://mirror.sjtu.edu.cn/pytorch-wheels/torch_stable.html
  1. 安装xinference
.\.venv\Scripts\python.exe -m pip install xinference[ggml]>=0.4.3

或者

.\.venv\Scripts\python.exe -m pip install xinference[ggml]>=0.4.3 -i https://pypi.tuna.tsinghua.edu.cn/simple/
  1. 安装chatglm-cpp

安装chatglm-cpp有两种方式:
i. 直接下载安装:

 .venv\Scripts\python.exe -m pip install -U chatglm-cpp -i https://pypi.tuna.tsinghua.edu.cn/simple/

如果安装失败,如下提示,则试第二种,因为我也没解决(尴尬)

ERROR: Could not build wheels for chatglm-cpp, which is required to install pyproject.toml-based projects

ii. 通过安装whl的方式:
去官网下载对应的whl文件:传送门
根据你的python版本和你的操作系统选择对应的文件版本,cp310表示你的python是3.10版本的。
下载列表
执行安装指令

.venv\Scripts\python.exe -m pip install chatglm_cpp-0.2.10-cp310-cp310-win_amd64.whl

二. 运行chatglm3-6b

  1. 启动xinference

在安装过程中成功安装了xinference后,会在对应虚拟环境的python所在的目录下生成一个xinference.exe程序,直接在对应的目录下运行即可
xinference运行窗口
运行成功后如下图所示:
成功运行

  1. 打开web界面
    用浏览器打开对应xinference界面,界面地址为:http://127.0.0.1:9997/,界面如下图所示
    xinference界面

  2. 按照下图中的步骤选择对应的模型,xinference就会去下载对应的模型并进行部署运行,下载的模型默认存放在:C:\Users\用户名\.cache\modelscope\hub\Xorbits\chatglm3-ggml部署模型4. 部署成功后会在Running Models界面显示对应运行的模型实例的信息
    运行实例信息

  3. 如下图点击对应的按钮即可进入ChatGLM3对应的web交互界面
    进入交互
    交互显示界面

三. 参考资料

  1. chatglm-cpp github
  2. whl安装步骤
  3. chatglm3-6b部署步骤modelscope
  4. chatglm3-ggml modelscope
  5. xinference github
  6. chatglm3-6b 部署bilibili
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值