在本地服务器部署chatglm(含在langchain中加载)

参考视频:【ChatGLM+Langchain构建本地知识库,只需6G显存,支持实时上传文档-哔哩哔哩】 https://b23.tv/XdgztUv

UP:新建文件夹X

按照视频一步一步来的,但是up是在自己的电脑上部署的,和在服务器上的有细微差别,为了自己以后的学习,记录一下。

一、chatglm环境部署

1、下载项目(直接去github上下载)

链接:https://github.com/THUDM/ChatGLM-6B

并将文件夹解压、上传到服务器(eg:文件位置为/home/chatglm/ChatGLM-6B-main)

2、创建环境(服务器已有miniconda)

1、创建并激活环境

conda create --name chatglm python=3.10 #创建一个新的名为chatglm的环境
conda activate chatglm #进入chatglm环境

 2、通过cd指令进入刚才下载的文件位置

eg:/home/chatglm(文件夹中应该有一个requirements.txt的文件)

### 本地部署 LangChainChatGLM 知识库 为了实现基于 LangChainChatGLM 的私有化知识库部署,企业和机构可以获得一个高效、安全、可控的知识管理解决方案[^1]。 #### 准备工作环境 确保安装了必要的依赖项和工具链。通常这包括 Python 及其开发包、Git 工具以及其他可能需要的软件组件。 #### 获取 ChatGLM-6B 模型 要开始本地部署过程,需先获取 `chatglm-6b` 模型文件。通过 Git 命令可以从 GitHub 上克隆仓库来获得该模型: ```bash git clone https://huggingface.co/THUDM/chatglm-6b ``` 此操作会下载整个项目到当前目录下,并创建名为 `chatglm-6b` 的新文件夹用于存储模型及相关资源[^2]。 #### 安装所需库 接下来,在环境中安装运行所需的 Python 库。推荐使用虚拟环境隔离不同项目的依赖关系。可以通过 pip 或 conda 来完成这些库的安装。对于本案例来说,至少应该包 transformers, langchain 等核心库。 ```bash pip install transformers langchain torch ``` #### 配置应用服务 配置应用程序的服务端部分,使其能够加载并利用上述模型处理请求。这部分涉及到编写 API 接口代码以及设置 Web 服务器等任务。LangChain 提供了一系列接口函数帮助开发者快速搭建起这样的系统框架。 #### 测试与优化 最后一步是对已构建好的平台进行全面测试,验证各项功能是否正常运作;同时针对性能瓶颈做出相应调整以提高效率和服务质量。由于私有化部署允许高度自定义,因此可根据实际应用场景灵活修改参数设定或扩展额外特性[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值