本文全面解析RAG技术优化策略,分为三大阶段:检索前优化(提升知识库质量,包括文档精细化分块、向量化模型选择和索引结构优化);检索中优化(提高查找精度,涉及查询转换、混合检索和元数据过滤);检索后优化(增强生成质量,通过上下文压缩、去噪和提示工程解决模型"胡说八道"问题)。这些策略能有效解决RAG检索不精准和回答不准确的问题,提升大模型应用效果。
不知道大家在使用RAG技术进行检索优化时有没有遇到这些问题:为什么明明资料上有的内容,但是在回答用户问题时一直不对?为什么让他根据资料回答问题,但是大模型还是会胡说八道?
遇到类似的问题要怎么破?今天把现阶段RAG优化策略一次说清楚。
这些优化策略贯穿了RAG的整个流程:检索前、检索中和检索后。
一、 检索前优化:提升“知识库”质量
这是最根本也是最基础的优化,目标是让检索器能快速找到最相关的内容。正所谓用垃圾生产产品,出来的产品也是垃圾。如果知识库本身质量差,后续步骤再优秀也无济于事。
文档预处理与分块策略
精细化分段:不要简单地按固定字数分段。
通过分段标识符自定义分段内容,使用自然语言处理技术,识别段落、标题等,确保一个分段在语义上是完整的。
分段最大长度:在设置分段最大长度时,长度尽量不要太长,设置的最大长度也要在模型的上下文长度范围内,超出范围模型会忘记前面的内容。
重叠长度:在段与段之间设置重叠区域,防止关键信息被恰好切断在两个段之间。如果你的资料已经处理的很干净了,那就一定不要重叠长度,不然容易造成冗余。
清理与标准化:去除无关内容(页眉、页脚、广告)、纠正OCR错误、统一格式等。这边建议使用markdown格式存储分段内容。
向量化模型优化
选用高质量的嵌入模型:不是所有text-embedding模型都一样。选择在权威评测(如Hugginaface实时更新的测评榜单上MTEB)中排名靠前的模型, 重点关注检索命中指标(Retrieval),实际选型的话还是需要自己去测试。
语言、行业等因素在不同模型上表现出来的性能是不一样的。
领域微调:如果你的领域非常专业(如医学、法律),使用领域内的数据对通用的嵌入模型进行微调,可以让模型更好地理解专业术语和上下文。微调不等于万能,所以非必要情况下不建议微调模型。
多语言支持:如果涉及多语言,需选用支持多语言的嵌入模型。
索引结构优化
选择合适的向量数据库:根据数据规模、延迟要求和成本,选择Pinecone、Weaviate、Chroma、Milvus等。它们提供了高效的近似最近邻搜索算法。
向量检索:通过生成查询嵌入并查询与其向量表示最相似的文本分段,这个更适用于长句检索、口语化的表达以及多语言检索;
关键词检索:索引文档中的所有词汇,从而允许用户查询任意词汇,并返回包含这些词汇的文本片段。这个更适用于专有名词、生僻字、简短句,结构化查询;
混合索引:结合传统关键词检索和向量检索,形成混合检索。这能结合两者的优点:向量检索理解语义,关键词检索保证精确术语匹配。
二、 检索中优化:提升“查找”精度
这一步关注如何从知识库中精准地捞出最相关的信息。
查询转换与扩展
查询重写:让LLM在检索前先优化用户的问题。例如,将口语化的问题改写成更正式、更适合检索的查询语句。
HyDE:一个非常有效的策略。让LLM根据原始问题生成一个假设性的答案,然后用这个生成的答案去向量库中检索。因为假设答案和真实答案在语义空间上会更接近。
查询扩展:通过LLM或传统方法,为原始问题生成多个相关的查询词,扩大检索范围,避免遗漏。
检索策略进阶
混合检索:如上文所述,将向量检索和关键词检索的结果合并,并按分数重新排序。
多路召回与重排序:
多路召回:使用不同的方法(如向量、关键词、甚至基于图数据库的关系查询)同时进行检索,得到多个候选文档列表。
重排序:使用一个更强大、更精细的模型(称为重排器,如bge-reranker)对多路召回的候选文档进行重新打分和排序,只保留Top-K个最相关的。这是大幅提升准确率的“杀手锏”。
元数据过滤:为每个文档段添加元数据(如来源、作者、日期、类别)。在检索时,先根据元数据过滤,再在子集内进行语义搜索。例如:“只检索2024年以后的财务报告”。
三、 检索后优化:提升“生成”质量
即使检索到了相关文档,如何让LLM更好地利用它们生成答案也同样重要。
上下文压缩与去噪
冗余去重:大模型检索出答案之后需要分析检索出来的内容是否出现重复信息时,如果出现重复信息则需要进行去重。
相关性过滤:设定一个相似度阈值,过滤掉分数过低的文档块,避免无关信息干扰LLM。
关键信息提取:让LLM先对检索到的文档进行总结和提炼,只将最核心的信息放入生成上下文中。这可以有效解决上下文窗口限制问题。
提示工程兜底优化
召回没有答案:如果没有检索到信息时,需要回复“这个问题没有被收录/这个问题资料库中没有等”,避免没有答案大模型自己造答案。
答案没有用:分析辨识大模型检索的内容,识别其中与问题相关内容,编辑后回答用户:如果内容与问题不相关,则回复"
召回答案有缺失,不完整:分析辨识大模型检索的内容,确保它们可以完整的回答用户的问题,如果内容残缺则回复“信息缺失,请联系"。
包含图片:如果上传的资料中存在以 markdown()标记的图片时,需要保留选取答案前后的图片表达式确保他们可以正常显示。
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。

掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!

1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。

2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。

4. 大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!

这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方优快云官方认证二维码,免费领取【保证100%免费】


被折叠的 条评论
为什么被折叠?



