MaxKB结合DeepSeek快速构建客服企业知识库

第一章:MaxKB部署

在这里插入图片描述

MaxKB = Max Knowledge Base,是一款基于大语言模型和 RAG
的开源知识库问答系统,广泛应用于智能客服、企业内部知识库、学术研究与教育等场景。
maxkb官网,首先我们先部署一个maxkb,官网支持离线、在线等方式部署,详细可以查看官网教程,这里介绍一下在线部署

1 部署要求
服务器配置

部署服务器要求:

操作系统:Ubuntu 22.04 / CentOS 7.6(7.4版本亲测也可以) 64 位系统 CPU/内存:4C/8GB 以上
磁盘空间:100GB

端口要求

在线部署 MaxKB 需要开通的访问端口说明如下:
22 SSH 安装、升级及管理使用
8080 Web 服务端口 默认 Web 服务访问端口,可根据实际情况进行更改

2 在线快速部署

MaxKB 支持一键启动,仅需执行以下命令:
这里注意,官网的部署命令在实操过程中发现docker会跟服务器网络有隔离,如果你的ollama与maxkb不在一个网络,配置的时候会提示API域名无效,经过验证需要再docker启动命令上加
–network host 来共享主机网络。

Linux 操作系统

以下/home可以改为自己实际目录,看数据盘在哪个目录。

docker run -d --name=maxkb --network host --restart=always -p 8080:8080 -v /home/.maxkb:/var/lib/postgresql/data -v /home/.python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb
Windows 操作系统

windows未验证,请自行尝试!

docker run -d --name=maxkb --restart=always -p 8080:8080 -v C:/maxkb:/var/lib/postgresql/data -v C:/python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb

待所有容器状态显示为healthy后,可通过浏览器访问 MaxKB:

最后把下面地址映射出来即可。实际也可以自己修改8080端口,不再赘述。

http://目标服务器 IP 地址:8080

默认登录信息 用户名:admin 默认密码:MaxKB@123…

第二章:ollama部署

ollama部署其实很简单,两个命令就行了。
ollama官网下载
linux服务器执行下面命令开始下载ollama

curl -fsSL https://ollama.com/install.sh | sh

下载完成后访问ollama官网查找自己喜欢的大模型,比如deepseek
模型选择
在这里插入图片描述
如下载 14B的语句

ollama run deepseek-r1:14b

复制命令执行后就可以了。但是默认下载的是占用根目录空间,linux更改ollama路径可以参考下面的方法。

这里要注意,我们经常需要把ollama安装在数据盘,所以需要更改下载的路径,以下是修改ollama默认路径的方法和开启全网段访问

1、创建新的模型存储目录:
    首先,创建一个新的目录作为模型存储路径。例如,创建/data/ollama/models目录: sudo mkdir -p /home/ollama/models

  1. 更改目录权限: 确保新目录的权限设置正确,允许Ollama访问和写入:
sudo chown -R ollama:ollama /home/ollama/models
sudo chmod -R 775 /home/ollama/models

3、修改Ollama服务配置文件
  编辑服务配置文件: 使用文本编辑器(如vim)编辑Ollama服务的配置文件:

sudo vi /etc/systemd/system/ollama.service

修改配置内容:
    在[Service]部分的Environment字段后,添加新的Environment字段,指定新的模型路径:
    Environment=“OLLAMA_MODELS=/data/ollama/models”
    完整的配置示例如下:

[Service]
Environment="OLLAMA_MODELS=/data/ollama/models"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

重载配置并重启Ollama服务重载系统服务配置:

sudo systemctl daemon-reload

重启Ollama服务:

sudo systemctl restart ollama.service

查看服务状态:

sudo systemctl status ollama
#启动deepseek
ollama run deepseek-r1:14b

第三章:MaxKB配置ollama

配置模型

在这里插入图片描述
在这里插入图片描述
本地的api key 随便填个字符即可。如果遇到提示API 域名无效,参考第一章相关内容。

创建知识库

在这里插入图片描述
根据后续界面上传本地文档
在这里插入图片描述
等待分段后,点击开始导入。

等待索引成功后添加应用就可以关联这个知识库了。

创建应用

在这里插入图片描述
在这里插入图片描述

剩下就是选择刚刚配置的大模型,编写一些话术,不再赘述。然后就可以点击应用进行预览,设置api key ,这样就可以对外开放安全的api了。
在这里插入图片描述
也可以直接复制他的内嵌代码到想要集成的应用里面
在这里插入图片描述
接下来点击演示就可以开始对话测试了

至此结束,祝各位顺利完成部署。

创作不易,望一键三连。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

呆呆的小青蛙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值