从零开始部署本地大模型(Langchain-chatchat)

本文详细介绍了如何在Anaconda环境中安装CUDA、创建虚拟环境,以及如何下载和配置PyTorch、模型(如Huggingface模型)。步骤包括拉取项目、安装依赖、修改配置文件,最后初始化数据库并运行项目。

配置环境

Anaconda安装

下载地址:Free Download | Anaconda

cuda安装

通过命令行查看GPU信息:

nvidia-smi

image-20240321160536323

可以看到,我的计算机支持的cuda最高版本是12.4

因此就去下载对应版本的cuda:CUDA Toolkit Archive | NVIDIA Developer

配置虚拟环境

这里使用Anaconda安装虚拟环境,python的版本是3.11

conda create -n chat python=3.11

拉取项目

然后,使用git拉取项目:

git clone https://github.com/chatchat-space/Langchain-Chatchat.git

接下来安装全部依赖:

# 进入目录
cd Langchain-Chatchat
# 安装全部依赖
pip install -r requirements.txt 
pip install -r requirements_api.txt
pip install <
### 本地环境安装和配置 Langchain-Chatchat #### 创建并激活 Conda 虚拟环境 为了确保项目的独立性和稳定性,建议创建一个新的 Conda 环境来管理所需的软件包。通过命令 `conda create --name chatchat python=3.9` 可以建立名为 "chatchat" 的 Python 3.9 版本的新环境[^2]。 接着,在终端输入 `conda activate ~/.anaconda3/envs/chatchat` 来激活此特定的 Anaconda 环境[^3]。 #### 下载 Langchain-Chatchat 和 Xinference 访问 GitHub 上官方仓库页面下载最新版本的 Langchain-Chatchat 应用程序,地址为 https://github.com/chatchat-space/Langchain-Chatchat 。这一步骤可以通过克隆 Git 仓库完成,即运行如下指令: ```bash git clone https://github.com/chatchat-space/Langchain-Chatchat.git ``` 对于 Xinference 组件,则按照项目文档中的指导进行获取与设置[^1]。 #### 安装依赖项 进入已下载的应用目录后,利用 pip 工具依据 requirements.txt 文件自动解析并安装所有必要的Python库文件。通常情况下只需执行以下命令即可实现自动化安装过程: ```bash pip install -r requirements.txt ``` 如果遇到权限问题或其他错误提示,请尝试加上 sudo 或者管理员身份重新操作上述命令;另外也可以考虑使用 venv 模块构建隔离式的 Python 运行空间以便更好地控制第三方模块版本兼容性等问题。 #### 加载模型和服务启动 当所有的准备工作完成后,可以依次调用两个脚本来准备所需的大规模预训练语言模型及其嵌入表示形式: - 执行 Shell Script `./xinference_model.sh` 用于加载基础的语言理解能力; - 接着再运行另一个脚本 `./xinference_model_emb.sh` ,它负责初始化向量检索服务端口等额外功能支持。 最后,只需要简单地键入 `chatchat start -a` 即可全面开启整个聊天系统的运作状态,并允许外部客户端连接请求交互对话接口。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值