葵花宝典之「知识库」调优秘籍!RAG优化指南!

最近有个朋友在用Dify搭建一个智能体+工作流,需要用到知识库的功能,然而在真正使用知识库的过程中发现效果并不及预期,不是知识库没有返回结果,就是知识库返回的结果不及预期。

今天就教大家如何进行知识库调优,使其能够满足自己的业务需求!码字不易,欢迎三连再看,让我们开始吧!

什么是RAG

RAG全称是Retrieval-Augmented Generation,即检索增强生成,它结合了检索和生成的能力,为文本序列生成任务引入外部知识。 RAG 将传统的语言生成模型与大规模的外部知识库相结合,使模型在生成响应或文本时可以动态地从这些知识库中检索相关信息。

简单点说就是,RAG给模型加了个外挂,让模型能够具备获取额外知识的能力!如下图所示:

在这里插入图片描述

什么是知识库

顾名思义,就是存储知识的数据库,我们可以把专用的知识放在知识库中,供大模型回答的时候进行参考。

不同于传统的数据库,知识库其实更像是一种检索系统,它不要求百分之百精确,只要能返回与查询词最相关的TopK条结果就行。其常用的方法就是倒排检索、向量检索等方法进行相似性检索。

在这里插入图片描述

由于知识库采用的是相似性检索,那么必然会出现结果不符合预期的情况,比如算法认为最相似的结果实际上并不相似。所以,如何对知识库进行调优进行显得非常重要,将能够显著提升大模型回答问题的质量。

下面我们一起来看一看知识库都有哪些调优方法吧!

分段设置

将内容上传至知识库后,接下来需要对内容进行分段与数据清洗。该阶段是内容的预处理与数据结构化过程,长文本将会被划分为多个内容分段。

在Dify或者其他知识库产品中,上传文档之后,一般可以进行分段设置,如下图所示:

在这里插入图片描述

「分段标识符」是用于分割文本的字符,一般来说,如果你的数据集是由特殊符号进行链接的内容,那么可以自定义「分段分隔符」,不然分割出来的段落可能会不全或者包含其他信息,影响检索的效果。下面是不同「分段标识符」的效果:

图片

「分段最大长度」是每一段最大的token数,指定分段内的文本字符数最大上限,超出该长度时将强制分段。默认值为 500 Tokens,分段长度的最大上限为 4000 Tokens;

「分段重叠长度」是前后两段重叠的token长度,指的是在对数据进行分段时,段与段之间存在一定的重叠部分。这种重叠可以帮助提高信息的保留和分析的准确性,提升召回效果。建议设置为分段长度 Tokens 数的 10-25%;

索引方式

索引方式指的是知识库如何进行相似度检索,正如搜索引擎通过高效的索引算法匹配与用户问题最相关的网页内容,索引方式是否合理将直接影响 LLM 对知识库内容的检索效率以及回答的准确性。

目前常见的索引方式包括倒排索引向量检索,下面是这两种方式的区别:

图片

倒排索引是通过关键词匹配的方式进行检索,能够精准的命中关键词,但是缺少语义相关的信息。

向量检索则是通过Embedding模型将切分的段落转换为向量,然后构建图索引(常见的是HNSW),进行相似性检索,但是不能确保一定命中关键词。

举个例子:

知识库中有下面几个词:

  • 哈士奇
  • 边牧
  • 柴犬

如果用户提问「目前知识库中有些哪狗」,使用倒排检索则会返回空结果,因为知识库中没有「狗」对应的关键词。而如果使用向量检索,则会返回所有结果,因为无论是哈士奇、边牧、还是柴犬,本质上都是「狗」。

所以,不同的索引方式也会影响知识库的检索质量。

在Dify中,包含了「高质量」、「经济」两种索引类型。

其中「高质量」索引方式同时包含了:向量检索、全文检索、混合检索。

图片

向量检索刚才已经说过了,主要是进行语义检索,能够更加匹配语义相关的信息。

全文检索则是倒排索引,它能够索引文档中的所有词汇,从而允许用户查询任意词汇,并返回包含这些词汇的文本段,也就是说返回的结果中一定包含了查询的关键词。

而混合检索则是向量检索和全文检索的混合,也是目前比较推荐的方式,同时包含了语义匹配和关键词匹配。在混合检索中,会使用「倒排索引」和「向量检索」分别得到n个结果,然后再使用「ReRank模型」将倒排索引和向量检索的结果合并起来,重新打分,重新排序,最终再将新的结果返回给用户,如下图所示:

在这里插入图片描述

如果你对关键词命中率比较关心,那么推荐使用「倒排索引」。

如果你对语义匹配率比较关心,那么推荐使用「向量检索」。

如果你对关键词命中率和语义匹配率都比较关心,那么推荐使用「混合检索」。

Embedding模型

在上面「索引方式」一节中可以看到,向量检索是先通过Embedding模型把段落转换为向量,然后再进行检索。

因此,Embedding模型的质量则直接影响检索的效果。

举个例子,假如一个Embedding模型只在动物数据集上进行了训练,它虽然能够识别出来「哈士奇」、「边牧」、「柴犬」都是狗,但是却不一定能够识别出来「程序猿」是人。

图片

同样,假如一个Embedding模型在小说数据集上进行了训练,它虽然能够很好的理解小说中的人物关系,但却不一定能够识别excel表格中各种财务报表。

因此,如果在使用向量检索的时候发现返回的结果相关性没那么强,那么就需要考虑更换Emebedding模型,或者在自己的数据集上微调Embedding模型了。

Rerank模型

和Embedding模型一样,如果使用了上面说的「混合检索」,那么Rerank模型也会影响到最终返回结果的质量。具体原因和Embedding模型类似。

当你发现「向量检索」本身返回的结果没问题,但是在使用了「混合检索」之后,结果却变差了,那么可以考虑更换Rerank模型。

分数阈值

在使用「向量检索」或者「混合检索」的时候,如果召回结果中包含了一些低质量的结果,那么很有可能会影响大模型的判断,因此,可以通过设置分数阈值把低质量的结果丢弃掉。

图片

它的原理是在得到结果之后,会判断每一条结果和查询词的分数,如果低于设置的阈值,则就丢弃掉:

图片

数据集制作

无论是分段方式、索引方式、Embedding模型还是Rerank模型,本质上都是在数据集上进行处理,如果数据集本身就包含了大量的脏数据,那么无论怎么处理,效果都不会怎么好。所以数据集的制作也是构建一个高质量知识库的关键一步。

比如,如果你的Excel表格中,如果你的每个单元格内容都很长,那么可以考虑拆表,否则在构建知识库的时候会把本是属于一段的内容给拆分成多段,而且拆分的为止也无法控制。

好了,以上就是「知识库」的调优秘籍了,如果你有什么其他更好的方法,欢迎在评论区留言交流!

我是Jack Bytes

一个专注于将人工智能应用于日常生活的半吊子程序猿!

平时主要分享AI、NAS、Docker、搞机技巧、开源项目等技术,喜欢的话请关注吧!

图片

如何零基础入门 / 学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

全套AGI大模型学习大纲+路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

read-normal-img

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

img

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

### 优化RAG知识库以提升输出准确性 为了增强检索增强生成(Retrieval-Augmented Generation, RAG)系统的输出精度,需关注几个关键方面: #### 提升检索效率与质量 研究致力于融合多种搜索技术、改进检索流程、引入认知回溯机制以及采用灵活查询策略和嵌入相似度计算方法来加强信息获取的质量[^1]。 #### 数据源的选择与管理 确保用于训练和支持推理阶段的知识库具备高质量的数据至关重要。这涉及定期更新资料集以保持时效性;剔除冗余或低价值条目从而精炼内容结构;同时增加权威来源比重,减少噪声干扰。 #### 查询理解能力的强化 通过自然语言处理(NLP)模型解析用户输入意图更加精准地匹配相关文档片段。利用预训练的语言表示如BERT等能够捕捉语义特征,进而改善召回率并降低误报概率。 #### 结果评估体系构建 建立严格的验证框架用来持续监控预测表现,并据此整参数配置或者重新设计算法逻辑。具体措施包括但不限于设立黄金标准样本集合作为参照系;实施A/B测试对比不同版本间的差异效果;收集外部反馈意见促进迭代进化过程。 ```python def evaluate_rag_output(output_text, gold_standard): """ 对比RAG系统产生的文本同预先设定的标准答案之间的差距 参数: output_text (str): 实际输出的内容字符串 gold_standard (list[str]): 正确的结果列表 返回值: float: 准确性的得分范围在0到1之间 """ from difflib import SequenceMatcher scores = [] for gs in gold_standard: score = SequenceMatcher(None, output_text.lower(), gs.lower()).ratio() scores.append(score) return max(scores) # 示例用 print(evaluate_rag_output("the cat sat on mat", ["a cat is sitting at home"])) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值