RAG 知识库核心模块全解(非常详细)从零基础到精通,收藏这篇就够了!

“关于知识库这块,你有什么能讲的吗?”我一脸懵逼,数据咋清洗,数据格式咋定的不是刚说完吗??🤔复盘了一下,感觉应该是想问下面这些

🧱 1. 文档切分策略(切得好,才能召回准)

🌟 目标:

把长文档切成合适的语义段,既能保证上下文连贯,又不超出 token 限制。

📌 常见策略:

策略描述优点缺点
固定窗口 + 重叠每 N 词/句切一段,前后有部分重叠实现简单、信息不漏语义断裂、冗余多
基于分隔符以段落、标题、换行等结构切保留结构,适合规整文档不适合没有格式的内容
智能语义切分利用句向量计算相似度判断切点保证每段语义完整计算开销大、依赖模型
百炼等 SaaS 的“智能切分”大模型判断分段位置效果通常不错不透明、不稳定可控性

🧰 推荐做法:

langchain.text_splitter 中的 RecursiveCharacterTextSplitter(递归+分隔符):

from langchain.text_splitter import RecursiveCharacterTextSplitter splitter = RecursiveCharacterTextSplitter( chunk_size=500, chunk_overlap=100, separators=["\n\n", "\n", ".", " ", ""] ) chunks = splitter.split_text(your_text)

💡 坑点:

  • chunk 太短 → 表达不完整

  • chunk 太长 → embedding稀释,token溢出

  • overlap 必须控制好,100左右比较稳


🧬 2. 向量生成(embedding)

🌟 目标:

把文本片段转化为模型能理解的向量(embedding),进入语义空间。

📌 常见 embedding 模型:

模型名维度语言优势
text-embedding-ada-002(OpenAI)1536英文/中英混合商用稳定
bge-base-zh / bge-large-zh768/1024中文优化免费、本地跑
text2vec 系列(阿里)768中文为主多任务优化好
e5-mistral(英文/多语)1024多语零样本搜索好用

🛠️ 示例代码:

from sentence_transformers import SentenceTransformer model = SentenceTransformer("bge-base-zh") emb = model.encode("鼠标断连怎么解决")

🔥 记得用 BGE 模型要加 prompt:“为这个句子生成表示以用于检索相关文档:xxxx”


🔍 3. 向量库选择(存储+召回)

🌟 目标:

将 embedding 存入可快速近似搜索的数据库中,用于后续查询。

📌 常见库:

库名特点本地部署检索速度
FAISS最轻量,Python快快速
Milvus企业级,高并发分布式好
ChromaLangchain生态简单
Weaviate / Qdrant支持更多索引类型更复杂可扩展

🛠️ 示例:FAISS 本地构建

import faiss import numpy as np index = faiss.IndexFlatIP(768) # 余弦相似度 index.add(np.array([vec1, vec2, vec3])) # vec 是 np.array 的向量 D, I = index.search(np.array([query_vec]), top_k)


🎯 4. 检索策略:向量、关键词、混合召回

🌟 目标:

提高召回的准度和覆盖率。

📌 召回方式对比:

策略原理优点风险
Dense 向量检索用embedding比对相似度抗表达差异易召回无关内容
Keyword(BM25)用关键词精准召回准确度高不支持变形表达
Hybrid(混合检索)两者并用 + 融合评分稳准平衡实现复杂

📌 混合召回核心是:关键词召回召不准 → 靠语义补;语义召回太泛 → 靠关键词兜底

🧠 常用组合:

  • 关键词召回 top30 + 向量召回 top30 → 合并 → rerank top10

🧠 5. Rerank 排序(二次排序)

🌟 目标:

提高最终召回片段的相关性排序,降低误召回风险。

📌 推荐模型:

名称原理优势
bge-reranker-base双句相似度评分中文好,性能稳定
Cohere Rerank商用API效果强
cross-encoder/ms-marco多语言开源

🛠️ 示例伪代码:

score = reranker(query, [chunk1, chunk2, chunk3]) ranked = sorted(zip(score, chunks), reverse=True)


🧩 6. Prompt 拼接策略(上下文注入)

🌟 目标:

将检索到的内容+用户问题组织成 Prompt 喂给 LLM。

📌 模板示例:

你是某品牌客服助手,以下是产品说明文档内容: 【知识片段】 1. 鼠标若断连,请检查电量或更换接收器 2. 鼠标灯不亮通常为电池电量低 用户提问: 鼠标今天怎么又断连了? 请基于上方知识内容回答。

🧠 控制点:

  • 控制 token 长度:太多片段 LLM 会截断

  • CONTEXT_WINDOW = 3500 控制拼接字数

  • 多段知识片段要用编号或分隔符 ---,降低混淆


❌ 7. 检索失败处理机制(没命中咋办)

🌟 目标:

保证系统在没有命中知识时,不答错,不胡说。

📌 建议处理方式:

情况策略
没有任何召回给 LLM 明确提示:“未检索到相关知识,直接回答‘暂未收录该问题’”
命中不确定内容添加置信度判断逻辑(低于阈值不展示)
用户可能问了不支持的功能在知识库中加入“该设备不支持XX”明确表述,防止误空

end

2024最新版优快云大礼包:《AGI大模型学习资源包》免费分享**

一、2025最新大模型学习路线

一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1级别:AI大模型时代的华丽登场

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理,关键技术,以及大模型应用场景;通过理论原理结合多个项目实战,从提示工程基础到提示工程进阶,掌握Prompt提示工程。

L2级别:AI大模型RAG应用开发工程

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3级别:大模型Agent应用架构进阶实践

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体;同时还可以学习到包括Coze、Dify在内的可视化工具的使用。

L4级别:大模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握;而L3 L4更多的是通过项目实战来掌握大模型的应用开发,针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。

二、大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

三、大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

四、大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

五、大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。


因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

2024最新版优快云大礼包:《AGI大模型学习资源包》免费分享

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值