DeepSeek+Dify搭建本地知识库大模型

用DeepSeek和Dify搭建本地知识库大模型
部署运行你感兴趣的模型镜像

DeepSeek+Dify搭建本地知识库大模型

1.设置本地Windows环境

打开HyperV,控制面板-程序-启用或关闭Windows功能,打开Hyper-V、适用于Linux的Windows子系统。安装并重启系统。
在这里插入图片描述

命令行安装wsl

wsl --install

Windows软件商店安装Ubuntu
在这里插入图片描述

2.安装docker

访问docker官网:https://www.docker.com/get-started,下载 Download Docker Desktop for Windows-amd64(64 位)安装包。双击并下一步直接安装即可。

在这里插入图片描述

注意,需要追加镜像源,避免无法拉取

添加如下

 "registry-mirrors": [
    "https://docker.1ms.run",
    "https://docker.mirrors.ustc.edu.cn",
    "https://registry.docker-cn.com",
    "http://hub-mirror.c.163.com",
    "https://mirror.ccs.tencentyun.com"
  ]

在这里插入图片描述

3.使用ollama部署deepseek

访问https://ollama.com/ 下载最新版本ollama,安装。

在这里插入图片描述

在Models里面找到DeepSeek 的安装命令,在Powershell中执行,安装8B版本。

在这里插入图片描述

ollama run deepseek-r1:8b

4060显卡安装8B版本后,显存基本用满。
在这里插入图片描述

安装成功截图

在这里插入图片描述

到此如果想简单用浏览器使用,使用edge安装Page Assist即可。

在Edge浏览器应用中搜索Page Assist,安装。

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

下一步,将基于Dify构建本地知识库调用DeepSeek。

4.安装Dify,构建知识库

访问GitHub,下载dify压缩包:https://github.com/langgenius/dify/archive/refs/tags/0.15.3.zip

解压后,打开dify目录,找到docker目录,将.env.example文件重命名为.env,并增加配置

# 允许使用个人模型
CUSTOM_MODEL_ENABLED = true
# 配置模型路径
OLLAMA_API_BASE_URL=host.docker.internal:11434

打开powershell,进入env文件目录,执行,并等待完成

docker-compose up -d

启动Dify,在浏览器里执行http://localhost/install

输入任意用户名、密码、邮箱,进行初始化。

进入Dify后,在最上方,选择工作室,选择创建空白应用

在这里插入图片描述

创建聊天助手,设置名称、图标。
在这里插入图片描述

进入设置

在这里插入图片描述

添加Ollama模型供应商,设置名称、Url http://host.docker.internal:11434
在这里插入图片描述

在Powershell中,使用Ollama添加 bge-m3,并在模型中添加

ollama pull bge-m3

在这里插入图片描述

模型配置完成后,进入知识库菜单,添加知识库

在这里插入图片描述

选取本地文件夹内文件添加即可

在这里插入图片描述

选取高质量,点击保存并处理。

在这里插入图片描述

完成后,回到工作室,选择模型,添加知识库后发布即可。

在这里插入图片描述

运行成功。

在这里插入图片描述

可以持续添加知识库文件并发布。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

### 构建RAG大模型私有知识库 #### 使用DeepseekDify实现本地部署 为了在本地环境中使用DeepseekDify构建RAG大模型的私有知识库,需完成一系列配置与集成操作。具体过程涉及环境准备、安装必要的软件包和服务设置。 #### 环境准备 确保拥有适合运行大型语言模型的基础架构,包括但不限于足够的计算资源(CPU/GPU)、内存空间及存储容量。此外,还需准备好支持Python编程的语言环境及相关依赖项[^3]。 #### 安装Deepseek-R1 按照官方文档指导,在服务器上部署Deepseek-r1版本的大规模预训练模型实例。此步骤通常涉及到下载权重文件、调整参数配置以适应硬件条件等操作[^1]。 #### 配置Dify平台 通过Dify提供的API接口或命令行工具连接已部署好的Deepseek-r1服务端口,使两者之间建立有效的通信链路。此时可以测试二者之间的连通性,确认消息传递正常无误[^2]。 #### 创建嵌入式索引 针对目标领域内的文本资料集执行向量化处理,生成对应的embedding表示形式,并将其导入至数据库中形成结构化的索引体系。这一环节对于后续查询效率至关重要。 #### 实现检索增强机制 设计合理的算法逻辑,使得当用户发起咨询请求时,系统能够快速定位最相关的背景信息片段作为辅助材料输入给LLM进行响应合成;同时保持对话流畅性和自然度不受影响。 ```python from dify import DifyClient import deepseek as ds client = DifyClient(api_key='your_api_key') model = ds.load_model('path_to_deepseek_r1') def get_context(query): embeddings = model.encode([query]) results = client.search(embeddings=embeddings, top_k=5) context = " ".join([r['text'] for r in results]) return context ``` 上述代码展示了如何利用Dify客户端API获取与查询语句相似度最高的几个条目,并将它们组合成一段连续的文字串供进一步分析使用。
评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

码农高小鹏

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值