手把手教你配置本地开源大模型

手把手教你配置本地开源大模型

当前,人工智能、大模型、大数据等技术加速迭代升级,日益融入社会发展各个领域,形成创新发展的新动力。为加快公司数字化转型,围绕公司管理业务、设计业务等方向组建了大模型技术赋能小组。本文介绍如何在Linux系统上部署一套开源大模型及知识库。

一、环境准备

1.1 准备Linux系统

1.2 安装Anaconda

Anaconda,是一个开源的,专注于数据分析的Python发行版本,包含了conda、Python等190多个科学包及其依赖项。Anaconda可以便捷获取包且对包进行管理。

1.2.1 下载Anaconda安装包

wget https://repo.anaconda.com/archive/Anaconda3-2023.07-Linux-x86_64.sh

1.2.2 安装Anaconda

bash Anaconda3-2023.07-Linux-x86_64.sh

安装过程中会出现许可协议提示,按 Enter 键查看协议内容,按 Q 键退出查看,然后输入 yes 同意协议。安装路径建议使用默认路径(按 Enter 键确认)。

1.2.3 配置环境变量

使用vim指令,手动编辑 .bashrc 文件,在文件末尾添加以下内容:

export PATH="$HOME/anaconda3/bin:$PATH"

保存文件后,输入

source ~/.bashrc

1.2.4 验证安装成功

conda --version

1.3 使用Anaconda创建大模型环境

conda create -n chat python=3.10

1.4 进入环境

conda activate chat 

二、安装Langchain-chatchat

2.1 创建文件夹并进入

mkdir Langchain-Chatchat                                                         

cd /data/llm/Langchain-Chatchat                                                           

2.2 下载Langchain-chatchat

git clone https://github.com/chatchat-space/Langchain-Chatchat.git

2.3 安装Langchain-chatchat依赖

2.3.1 安装 Poetry

pip install Poetry                                                             

2.3.2 使poetry使用virtualenv python environment

poetry config virtualenvs.prefer-active-python true

2.3.3 查看刚刚poetry设置的信息,输入下面命令打印“true”就说明设置成功:

poetry config virtualenvs.prefer-active-python

2.3.4 进入主项目目录,并安装 Langchain-Chatchat 依赖

cd  Langchain-Chatchat/libs/chatchat-server/

poetry install --with lint,test -E xinference

三、部署并使用Xinference

Xorbits Inference(Xinference)是一个性能强大且功能全面的分布式推理框架。可用于各种模型的推理。

3.1 创建文件夹并进入

mkdir xinference                                                          

cd /data/llm/xinference                                                            

3.2 使用conda命令创建新环境

conda create -n xinference python=3.10

3.3 部署Xinference

pip install "xinference[all]"

xinference-local --host 0.0.0.0 --port 9997

3.4 查看日志并进入Xinference前端网站

3.5 进入 http://127.0.0.1:9997/

                 

下载想要使用的llm模型和Embedding模型

输入必须配置,并下载模型。

进入运行的模型中可试用此模型。

四、配置Langchain-chatchat并使用自己创建的模型

4.1 查看docs文件夹下文件了解项目信息

4.2 执行以下命令初始化项目配置文件和数据目录:

```shell

cd libs/chatchat-server

python chatchat/cli.py init

4.3 修改model_settings.yaml文件

将此处改为想要使用的大模型名称

4.4 启动Langchain-chatchat

python chatchat/cli.py start -a

4.5 查看日志

4.6 进入http://0.0.0.0:8522/访问大模型

到此,本地大模型及知识库部署完毕。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值