使用dify+deepseek部署本地知识库

一、概述

随着AI工具的广泛使用,利用现有的AI工具(例如deepseek、豆包、kimi、GPT等)可以大副度地提升日常的工作效率。但对于企业来说,为考虑数据的安全性,可以考虑本地部署AI,避免数据泄露。同时通过搭建自己本地的知识库,实现定制化的功能。

二、安装windows docker desktop

1、确认系统的Hyper-v功能正常启用

控制面板 ——> 程序和功能
在这里插入图片描述

2、docker官网下载安装windows客户端

https://www.docker.com/
在这里插入图片描述等待安装包下载完成, 双击运行安装即可,所有选项保持默认

3、安装完成后的界面如下所示

首次安装时,默认是没有任何容器显示的,这是我部署好dify界面的截图
在这里插入图片描述

三、下载安装ollama

在这里插入图片描述在这里插入图片描述等待安装包下载完成, 双击运行安装,中间没有任何选项,保持下一步安装即可

四、部署本地deepseek

此案例中部署的是deepseek-r1:7b版本
在这里插入图片描述在这里插入图片描述

说明:运行上面的命令为部署deepseek-r1:7b版本,由于我这里事先已经部署好了,直接会进入模型。首次部署时,会出现下载过程,大约4.7G的容量,看网速等待完成即可

五、本地下载部署dify

5.1 下载dify的安装包

https://github.com/langgenius/dify
在这里插入图片描述等待安装包下载完成

5.2 将dify解压到任意目录

最好不要有中文
切换到解压目录的docker目录(D:\dify-main\docker)中,将.env.example复制重命名为.env

5.3 开始部署dify

在这里插入图片描述由于我这里dify事先部署完成了,所以显示的都是running过程。首次部署时,需要等待下载相应的容器镜像,创建相应的容器

成功部署后,可以在docker desktop界面查看创建的容器、及镜像
在这里插入图片描述在这里插入图片描述

5.4 通过浏览器访问本地的dify

按第一步的提示,创建管理员用户,跳转到登录界面
在这里插入图片描述登录成功后的界面如下所示

在这里插入图片描述

六、设置dify使用的模型

6.1 设置dify使用的模型

在这里插入图片描述

6.2 安装模型厂商,设置对应的key

比如这里设置ollama厂商调用本地部署的deepseek-r1:7b
在这里插入图片描述在这里插入图片描述

6.3 设置系统推理模型

在这里插入图片描述

七、创建本地知识库

7.1 安装bge-m3模型

在这里插入图片描述

7.2 在dify中添加bge-m3模型

在这里插入图片描述

7.3 创建本地知识库

在这里插入图片描述在这里插入图片描述

八、创建对话助手

创建对话助手,使用本地的知识库进行对话问答
在这里插入图片描述

<think>嗯,用户想在Docker里配置DifyDeepSeek连接本地知识库。首先,我需要回忆一下DifyDeepSeek的基本配置步骤。根据引用[3],Dify的安装需要克隆仓库、设置环境变量并用docker compose启动。那如何让DeepSeek集成进去呢?可能需要在Dify的配置里指定模型路径或API端点,尤其是本地部署DeepSeek模型。 接下来,本地知识库的连接。Dify支持RAG,可能需要将本地的文档路径挂载到Dify的容器里,或者配置数据库连接。用户提到的是本地知识库,所以可能是指文档存储的位置。在docker compose文件中,可能需要添加volume挂载,把宿主机的文档目录映射到容器内相应的路径。 然后,检查环境变量,特别是模型相关的设置,比如DEEPKEEP_MODEL_PATH或者API密钥。如果DeepSeek是通过API访问的,可能需要配置API密钥;如果是本地运行的模型,可能需要设置本地服务的地址和端口。 还要考虑网络配置,确保Dify容器能访问DeepSeek服务。如果DeepSeek也在Docker中运行,可能需要使用同一个Docker网络,或者通过links连接。用户的问题可能涉及到多个容器之间的通信,需要确认docker compose中的服务定义是否正确关联。 另外,查看Dify的文档是否有关于集成本地模型的具体步骤,比如修改哪个配置文件或环境变量。引用[3]提到在.env文件中配置环境变量,可能需要在这里添加DeepSeek的相关参数。 最后,测试配置后的系统是否能正确调用DeepSeek处理知识库的数据。可能需要进入Dify的管理界面,创建应用并选择DeepSeek作为模型,然后上传文档测试RAG功能。如果遇到连接问题,检查日志,docker compose logs 服务名,看看是否有网络错误或配置错误。 总结步骤应该是:安装Dify,配置环境变量,部署DeepSeek模型,挂载知识库目录,设置模型连接参数,启动服务并测试。需要确保每一步的配置正确,特别是路径和网络设置。</think>### 分步指南:Docker 中配置 DifyDeepSeek 连接本地知识库 #### 1. 基础环境准备 **步骤说明**:确保 Docker 服务已正确安装并运行 ```bash # 启动 Docker 服务并设置开机自启 sudo systemctl start docker sudo systemctl enable docker ``` 引用[^1]提到的基础操作需优先完成,确保容器环境正常[^1]。 --- #### 2. 部署 Dify 平台 **步骤说明**:通过 Docker Compose 启动 Dify 容器 ```bash # 克隆 Dify 仓库并进入目录 git clone https://github.com/langgenius/dify.git cd dify/docker # 复制环境变量模板并修改配置 cp .env.example .env # 编辑 .env 文件(需指定本地知识库路径和模型参数) vim .env # 启动 Dify 容器 docker compose up -d ``` 在`.env`文件中需关注以下关键参数: ```bash # 本地知识库存储路径映射(示例) VOLUME_PATH=/path/to/local/knowledge:/app/knowledge # DeepSeek 模型集成参数(根据实际部署方式调整) DEEPSEEK_API_KEY=your_api_key DEEPSEEK_MODEL_ENDPOINT=http://deepseek-container:port/v1 ``` 引用[^3]强调了环境变量对服务连接的重要性[^3]。 --- #### 3. 配置 DeepSeek 本地服务 **场景分析**: - **若使用 API 服务**:直接在 Dify 后台配置 API 密钥和端点 - **若本地部署模型**:需在 Docker 中运行 DeepSeek 容器并与 Dify 网络互通 **示例配置**: ```bash # 创建共享网络(若需要容器间通信) docker network create ai-network # 启动 DeepSeek 容器(假设已构建镜像) docker run -d --name deepseek \ --network ai-network \ -p 8000:8000 \ deepseek-image:latest ``` 在 Dify 的模型管理界面添加自定义模型,填写容器内服务地址。 --- #### 4. 集成本地知识库 **操作步骤**: 1. 在 Dify 控制台创建应用,启用 **RAG 功能** 2. 通过 **数据集管理** 上传本地文档(需确保容器内路径可访问) 3. 在应用工作流中绑定 DeepSeek 模型和知识库数据集 **关键配置点**: - 挂载本地知识库目录到容器(通过 Docker 卷映射) - 数据集解析设置需匹配文档格式(如 PDF/Markdown) --- #### 5. 验证与调试 **验证方法**: ```bash # 查看容器日志确认服务状态 docker compose logs -f dify-worker # 测试知识库检索功能 curl -X POST http://localhost/api/v1/knowledge-test \ -H "Content-Type: application/json" \ -d &#39;{"query": "测试问题"}&#39; ``` 若返回结果包含知识库内容,则集成成功。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值