Langchain-chatchat+ChatGlm3-6b部署

我的环境

升级了下配置,加载知识库成功

内存:16GB 32B

显卡:GTX1060-6G RTX4080 Laptop-12G

1. 基础环境准备

1.1. 安装anaconda,创建环境python版本3.11

conda create -n chatglm3 python=3.11
conda activate chatglm3

1.2. 搭建cuda环境

# 查看cuda版本,版本是CUDA Version: 12.4
$ nvidia-smi
Sat Mar 16 19:22:23 2024
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 551.76                 Driver Version: 551.76         CUDA Version: 12.4     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                     TCC/WDDM  | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA GeForce GTX 1060 6GB  WDDM  |   00000000:08:00.0  On |                  N/A |
|  0%   34C    P8              2W /  130W |     688MiB /   6144MiB |     21%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+----------------
### 部署 Langchain-Chatchat 0.3.0 和 ChatGLM 6B #### 安装依赖库 为了成功部署 Langchain-Chatchat 0.3.0 并运行 ChatGLM 6B 模型,需先安装必要的 Python 库。建议创建一个新的虚拟环境来管理这些依赖项。 ```bash pip install -r requirements.txt ``` 此命令会依据 `requirements.txt` 文件中的列表自动下载并配置所需的软件包[^2]。 #### 下载预训练模型 接下来要获取 ChatGLM 6B 模型权重文件。这可以通过克隆 Hugging Face 上托管的仓库完成: ```bash git clone https://huggingface.co/THUDM/chatglm2-6b-32k /your_path/chatglm2-6b ``` 上述指令将把指定路径下的存储库复制到本地机器上,其中包含了用于初始化大型语言模型所需的数据集和参数设置[^3]。 #### 修改 Peft 文件夹以支持 P-Tuning 由于 FastChat 使用特定方式加载自定义调整后的模型版本,在某些情况下可能无法直接读取由其他工具生成的结果。针对这种情况,LangChain Chatachat 社区提供了详细的指导文档说明如何适配不同类型的微调方法,特别是对于不完全遵循标准接口实现的情况进行了特别处理[^4]。 具体操作涉及编辑源码内的几个关键位置,确保能够识别来自外部插件或框架所提供的特殊格式化输入。这部分工作通常需要具备一定编程基础以及对内部架构有一定了解才能顺利完成。 #### 启动服务端口监听 最后一步是在服务器端启动应用程序实例,使其可以接收客户端请求并向其返回预测结果。一般而言,开发者会选择 Flask 或者 FastAPI 这样的轻量级 Web 框架作为 HTTP 接口层,并通过 gunicorn 等 WSGI 服务器增强性能表现。 ```python from langchain_chatchat import app if __name__ == "__main__": app.run(host='0.0.0.0', port=8080, debug=True) ``` 这段简单的脚本展示了如何快速搭建起一个基于 Langchain-Chatchat 的 RESTful API 服务平台[^1]。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值