无需联网!搭建DeepSeek+本地RAG知识库保姆级教程,必备技能!大模型入门到精通,收藏这篇就足够了!

今天我们来聊聊怎么用Deepseek打造一个本地化的RAG知识库,从安装、部署到使用优化,保姆级教程,保证能顺利安装上。

1、为啥要搞RAG?

为什么现在大模型在解决专业问题时,表现并不总是那么靠谱。大模型在通用问题上表现很强,但一旦碰到专业领域的事儿,它有时候就会出现‘幻觉’,也就是回答偏离实际,或者给出的信息根本不准确。这时候,RAG就能帮上大忙了。RAG是“检索增强生成”的结合体,它能够从你本地的数据库里去检索相关知识,然后和大模型的生成结果一起组合,给你更准确、更个性化的回答。简单来说,RAG就是增强大模型能力的一种技术,尤其是在处理一些本地化、私有化的内容时,它特别有优势。

1.1 大模型的痛点

平时用线上大模型问“中午吃啥”贼溜,但一聊专业问题(比如公司内部技术文档),它就开始瞎编!

举个例子:问“公司2025年新发布的XX产品参数”,结果它把2022年的老数据混进来,这就是“幻觉”。

1.2 RAG就是解药

原理超简单:把你的内部文件(PDF/Word/Excel)剁成知识碎片,存进本地“智能小仓库”(向量数据库),每次提问先翻外挂的仓库找答案,再让大模型结合答案回答问题,这样回答有据可查,还能保密公司数据!2、要安装什么软件,有什么用?

需要安装两个软件ollama和anythingllm

Ollama https://ollama.com/

本地跑大模型,各种大模型的管家,本地使用,不用联网。负责提供基础LLM模型和向量模型服务。后面我们要安装至少两个模型。

AnythingLLM https://anythingllm.com

本地的大模型的工具软件,提供管理知识库功能,提供聊天功能。

3、理解一下基础模型和向量模型

3.1 基础LLM模型

就像是各种超级大脑,可以安装很多,本次我们当然要安装正火爆的deepseek。

3.2 向量模型

向量模型是一种提供向量化的功能类模型,要建立私有知识库,就必须有这类的模型负责把信息转为向量化,把文档变成数字密码,简单理解可以想象把文档拆分、分段后各种计算形成很多维度的数字描述。

4、安装Ollama和AnythingLLM

4.1 安装配置Ollama

4.1.1官网下载安装

浏览器输入https://ollama.com/下载软件并安装。下载得到安装exe文件,点击正常安装即可。安装成功后,服务会自动启动。

浏览器输入http://localhost:11434/ 显示如下界面说明服务正常启动。

4.1.2测试是否安装成功

通过以下命令测试以下:

Cmd下输入Ollama 结果如下即表示安装成功!

Ollama

Ollama作为服务同时启动,浏览器输入http://localhost:11434/显示如下

Ollama常用命令参考

4.1.3 选择模型进行下载

安装deepseek直接访问https://ollama.com/library/deepseek-r1,选择合适大小的模型。

Cmd中执行如下命令

ollama run deepseek-r1:1.5b

下载并运行deepseek-r1:1.5b,根据网络情况会下载一段时间,下载成功后进入如下:

可以输入如“我是谁”,可以看到返回结果,说明安装成功能正常使用了。接着我们继续下载向量模型bge-m3,输入

ollama pull bge-m3

备注:也可以安装小一些的向量模型nomic-embed-text,输入

ollama pull nomic-embed-text

提示如下显示安装成功,因为是向量模型下载成功不会进入对话界面。

4.2 安装AnythingLLM

4.2.1 安装并启动

浏览器输入https://anythingllm.com,选择合适的版本下载进行安装。

官网下载安装后进入配置,不清楚的话可以选择默认配置暂时跳过,启动后面进入系统按照下面的进行配置即可。

4.2.2 进入配置

软件启动后左侧底部的小图标如下图,点击进入配置页面

4.2.3 外观-选择语言为chinese

可以设置语言为chinese,注意汉化的不是很好,右侧的不好界面还是英文,不是没有选择对的原因。

4.2.4 设置LLM首选项

使用的基础模型,我们选择刚刚安装的deepseekr1:1.5B,注意切换模型要点击右侧上面的保存后才生效。

4.2.5 Embedder向量模型设置

选择下载的向量模型,选择错误的话,将不能将文档向量化,导致检索结果不生效。

4.2.6 文本切割设置

一个是文本块大小,一个上下文的重叠,也会影响结果。

5、配置私有知识库

5.1 创建工作区

点击新工作区,建立一个新的工作区,可以根据需要建立不同的工作区。

5.2 工作区参数配置

工作区名称鼠标上去后右侧出现两个按钮,左侧是知识库维护,右侧是工作区域参数设置,工作区域的参数我们可以修改一下聊天的设置见下图。

5.3 知识库配置

进入后可以点击上传文档,这里我上传了两个示例文档来测试效果,选中左侧移动到右侧区域,然后点击右侧下面的保存并向量化,如果文件比较大会消耗时间。

5.4 使用知识库检索

测试一下,我们输入“合正云内容管理平台的信创国产化能力介绍一下”,发现界面显示思考过程分析了刚上传的文件,并做出来有效总结输出,我们再输入“合正云融媒体中央厨房系统的功能介绍一下,从文档中找内容总结,不要超出文档的内容,请以表格的方式给出”发现也能比较好地输出内容来自另外一个文档中,效果还不错,其他的一些功能可以自己尝试用一下。

6、调优知识库的输出结果

  • 注意文档格式

注意上传文档的格式是否支持,有些文档格式可能不支持,转为支持的文档类型再上传。

  • 更换DeepSeek模型

建议允许的情况下切换到ollama run deepseek-r1 7b,7b的效果明显好于1.5B模型上。

  • 更换向量模型

还有安装更换其他大一些的向量模型,比如安装bge-m3模型。

  • 文本切割参数

还有就是调整左侧菜单中的“文本切割”,把文档切得更碎一些方便检索命中,可以设置文本块大小200,文本块重叠设置40。

这就是今天分享的内容,如果对你有帮助别忘了点赞、关注!!

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

在这里插入图片描述

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

在这里插入图片描述

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

在这里插入图片描述

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

### 构建RAG大模型私有知识库 #### 使用Deepseek和Dify实现本地部署 为了在本地环境中使用Deepseek和Dify构建RAG大模型的私有知识库,需完成一系列配置与集成操作。具体过程涉及环境准备、安装必要的软件包和服务设置。 #### 环境准备 确保拥有适合运行大型语言模型的基础架构,包括但不限于足够的计算资源(CPU/GPU)、内存空间及存储容量。此外,还需准备好支持Python编程的语言环境及相关依赖项[^3]。 #### 安装Deepseek-R1 按照官方文档指导,在服务器上部署Deepseek-r1版本的大规模预训练模型实例。此步骤通常涉及到下载权重文件、调整参数配置以适应硬件条件等操作[^1]。 #### 配置Dify平台 通过Dify提供的API接口或命令行工具连接已部署好的Deepseek-r1服务端口,使两者之间建立有效的通信链路。此时可以测试二者之间的连通性,确认消息传递正常无误[^2]。 #### 创建嵌入式索引 针对目标领域内的文本资料集执行向量化处理,生成对应的embedding表示形式,并将其导入至数据库中形成结构化的索引体系。这一环节对于后续查询效率至关重要。 #### 实现检索增强机制 设计合理的算法逻辑,使得当用户发起咨询请求时,系统能够快速定位最相关的背景信息片段作为辅助材料输入给LLM进行响应合成;同时保持对话流畅性和自然度不受影响。 ```python from dify import DifyClient import deepseek as ds client = DifyClient(api_key='your_api_key') model = ds.load_model('path_to_deepseek_r1') def get_context(query): embeddings = model.encode([query]) results = client.search(embeddings=embeddings, top_k=5) context = " ".join([r['text'] for r in results]) return context ``` 上述代码展示了如何利用Dify客户端API获取与查询语句相似度最高的几个条目,并将它们组合成一段连续的文字串供进一步分析使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值