MaxKB结合DeepSeek快速构建客服企业知识库

第一章:MaxKB部署

在这里插入图片描述

MaxKB = Max Knowledge Base,是一款基于大语言模型和 RAG
的开源知识库问答系统,广泛应用于智能客服、企业内部知识库、学术研究与教育等场景。
maxkb官网,首先我们先部署一个maxkb,官网支持离线、在线等方式部署,详细可以查看官网教程,这里介绍一下在线部署

1 部署要求
服务器配置

部署服务器要求:

操作系统:Ubuntu 22.04 / CentOS 7.6(7.4版本亲测也可以) 64 位系统 CPU/内存:4C/8GB 以上
磁盘空间:100GB

端口要求

在线部署 MaxKB 需要开通的访问端口说明如下:
22 SSH 安装、升级及管理使用
8080 Web 服务端口 默认 Web 服务访问端口,可根据实际情况进行更改

2 在线快速部署

MaxKB 支持一键启动,仅需执行以下命令:
这里注意,官网的部署命令在实操过程中发现docker会跟服务器网络有隔离,如果你的ollama与maxkb不在一个网络,配置的时候会提示API域名无效,经过验证需要再docker启动命令上加
–network host 来共享主机网络。

Linux 操作系统

以下/home可以改为自己实际目录,看数据盘在哪个目录。

docker run -d --name=maxkb --network host --restart=always -p 8080:8080 -v /home/.maxkb:/var/lib/postgresql/data -v /home/.python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb
Windows 操作系统

windows未验证,请自行尝试!

docker run -d --name=maxkb --restart=always -p 8080:8080 -v C:/maxkb:/var/lib/postgresql/data -v C:/python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb

待所有容器状态显示为healthy后,可通过浏览器访问 MaxKB:

最后把下面地址映射出来即可。实际也可以自己修改8080端口,不再赘述。

http://目标服务器 IP 地址:8080

默认登录信息 用户名:admin 默认密码:MaxKB@123…

第二章:ollama部署

ollama部署其实很简单,两个命令就行了。
ollama官网下载
linux服务器执行下面命令开始下载ollama

curl -fsSL https://ollama.com/install.sh | sh

下载完成后访问ollama官网查找自己喜欢的大模型,比如deepseek
模型选择
在这里插入图片描述
如下载 14B的语句

ollama run deepseek-r1:14b

复制命令执行后就可以了。但是默认下载的是占用根目录空间,linux更改ollama路径可以参考下面的方法。

这里要注意,我们经常需要把ollama安装在数据盘,所以需要更改下载的路径,以下是修改ollama默认路径的方法和开启全网段访问

1、创建新的模型存储目录:
    首先,创建一个新的目录作为模型存储路径。例如,创建/data/ollama/models目录: sudo mkdir -p /home/ollama/models

  1. 更改目录权限: 确保新目录的权限设置正确,允许Ollama访问和写入:
sudo chown -R ollama:ollama /home/ollama/models
sudo chmod -R 775 /home/ollama/models

3、修改Ollama服务配置文件
  编辑服务配置文件: 使用文本编辑器(如vim)编辑Ollama服务的配置文件:

sudo vi /etc/systemd/system/ollama.service

修改配置内容:
    在[Service]部分的Environment字段后,添加新的Environment字段,指定新的模型路径:
    Environment=“OLLAMA_MODELS=/data/ollama/models”
    完整的配置示例如下:

[Service]
Environment="OLLAMA_MODELS=/data/ollama/models"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

重载配置并重启Ollama服务重载系统服务配置:

sudo systemctl daemon-reload

重启Ollama服务:

sudo systemctl restart ollama.service

查看服务状态:

sudo systemctl status ollama
#启动deepseek
ollama run deepseek-r1:14b

第三章:MaxKB配置ollama

配置模型

在这里插入图片描述
在这里插入图片描述
本地的api key 随便填个字符即可。如果遇到提示API 域名无效,参考第一章相关内容。

创建知识库

在这里插入图片描述
根据后续界面上传本地文档
在这里插入图片描述
等待分段后,点击开始导入。

等待索引成功后添加应用就可以关联这个知识库了。

创建应用

在这里插入图片描述
在这里插入图片描述

剩下就是选择刚刚配置的大模型,编写一些话术,不再赘述。然后就可以点击应用进行预览,设置api key ,这样就可以对外开放安全的api了。
在这里插入图片描述
也可以直接复制他的内嵌代码到想要集成的应用里面
在这里插入图片描述
接下来点击演示就可以开始对话测试了

至此结束,祝各位顺利完成部署。

创作不易,望一键三连。

### MAXKBDeepSeek的集成或比较 #### 1. DeepSeek-V2简介 DeepSeek-V2 是一种基于混合专家模型的语言模型,其设计目标在于提供强大的性能的同时保持经济性和高效性[^1]。该模型通过利用稀疏激活机制,在不显著增加计算成本的情况下提升了模型容量和表达能力。 #### 2. MAXKB概述 MAXKB 并未在现有公开资料中被具体定义为某项技术或产品名称。然而,假设它是一个知识库管理系统或者类似的 IT 解决方案,则可以推测它的功能可能涉及数据存储、检索以及实时更新等方面[^3]。如果 MAXKB 特指某个特定的知识管理工具或框架,那么进一步的信息需要依赖具体的上下文描述。 #### 3. 集成可能性分析 当考虑将 DeepSeekMAXKB 这样的系统进行集成时,可以从以下几个方面入手: - **数据流处理** 如果 MAXKB 支持类似于 Druid 或 Pinot 的架构模式来实现实时节点的数据摄取和服务查询操作,则可以通过 Kafka 等消息队列服务作为中间件连接两者之间的通信路径。 - **API 接口开发** 构建 RESTful API 或 GraphQL 接口使得前端应用能够同时调用来自两个系统的资源。例如,对于自然语言理解请求先经过 DeepSeek 处理后再传递给后台数据库执行更深层次的逻辑运算。 - **联合训练策略** 在某些场景下,允许部分参数共享甚至端到端微调整个流水线可能是必要的选择之一。此时需要注意不同组件间梯度传播的一致性问题以及潜在冲突解决办法的设计。 #### 4. 对比维度探讨 针对两者的对比主要集中在以下几点上展开讨论: | 方面 | DeepSeek-V2 | 假设中的 MAXKB | |--------------|--------------------------------------------------------------------------------------------------|----------------------------------------------------------------------------| | 技术领域 | 自然语言生成(NLG),对话系统 | 数据仓库/大数据平台 | | 性能指标 | 参数规模大但运行效率高 | 查询响应速度快 | | 应用场景举例 | 文本摘要生成、机器翻译 | 商业智能报表展示 | 值得注意的是上述表格仅为理论上的概括总结,并不代表实际产品的全部特性列表[^1]。 ```python # 示例代码片段用于说明如何设置Kafka消费者以接收新事件并推送到下游服务 from kafka import KafkaConsumer consumer = KafkaConsumer('my-topic', group_id='my-group', bootstrap_servers=['localhost:9092']) for message in consumer: process_message(message.value) # 将接收到的消息转发至相应的处理器函数内继续后续流程 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

呆呆的小青蛙

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值