RAG应用普及促进RAG技术不断演进,衍生出多个变体和优化方案,如GraphRAG、MultiHop-RAG(多跳RAG)、HyDE和RAGFusion等就是目前市场中主流的几个RAG家族成员,这些RAG技术优化路线各有侧重,适用于不同的应用场景。本文将系统梳理RAG家族的发展脉络,深入剖析各版本的核心原理、技术架构及实际应用,帮助用户全面理解 RAG生态体系与应用范式。
前排提示,文末有大模型AGI-优快云独家资料包哦!
在介绍RAG家族其它成员前,我们首先还是回顾一下RAG的基本概念,同时也了解一下传统RAG的局限性。
传统RAG及其局限性
RAG的基本概念
RAG技术通过把信息检索与文本生成相结合,为大模型提供了一个“开放的知识库”,使其能够在回答问题时查阅外部知识。让我们仔细看看 RAG 的三个关键阶段:
检索:在此阶段,RAG系统根据用户的查询,从外部数据源(例如文档或数据库)检索相关信息。检索过程可以使用不同的技术来识别最相关的数据,例如相似性搜索或数据库查询。然后,根据结果与查询的相关性对其进行排序和评分。
增强:在增强阶段,检索到的信息会与原始用户问题以及任何附加说明或上下文相结合。增强后的提示为语言模型生成响应提供了更丰富的上下文。目标是强制模型仅使用这些相关信息来生成准确且有用的输出。
生成:在最后阶段,增强型提示将由大模型处理,该大模型仅使用提供的上下文(而非依赖其预先训练的知识)生成所需格式的答案。该答案还可以链接源信息和其他元数据。
通过利用外部知识增强语言模型,并利用模型的自然语言理解能力来检索和处理这些信息,与仅依赖预先训练的知识的独立语言模型相比,RAG系统可以产生更准确、时效性更高、领域属性更强的响应。
关于RAG的介绍,可参见前文:RAG技术与应用深度研究报告
传统RAG的局限性
许多RAG系统统仅依赖于对文本嵌入(数值向量表示)进行向量搜索,以进行信息检索。为了准确捕捉文本的相关性语义,源文档通常被分成更小的片段,然后嵌入、索引和存储,以供检索。
然而,这种方法有其局限性。由于仅依赖向量搜索,响应内容仅限于检索到的块中的文本片段。这可能导致答案不完整或碎片化。
例如,如果用户询问有关特定产品功能的问题,则RAG系统可能会检索提及该产品的块,但无法包含提供更全面答案的文档其他部分的相关信息。
此外,由于向量表示和向量搜索的黑盒特性,此类方法无法解释所收集信息的依据。这意味着用户和开发者对于检索某些数据块的原因以及它们对生成响应的贡献了解有限。这种缺乏可解释性可能成为传统RAG系统一个重大缺陷,尤其是在可靠性、安全性、合规性至关重要的领域,例如医疗保健或金融。
为了解决这些缺点,市场中的专业团队使用一些新技术来改进RAG流程的不同阶段(检索、增强和生成),这也是RAG技术深度应用的必然产物。
根据专家对RAG领域的研究表明,RAG有三个重要的发展阶段:简单RAG、高级RAG和模块化RAG,在高级RAG应用阶段,在简单RAG基础上增加了预检索和后检索支持,模块化 RAG系统则包含更复杂的模式,需要对用户查询进行流程编排和路由决策设计。这也是RAG技术演进的重要理论支撑。
RAG应用的三个阶段
GraphRAG
GraphRAG基本概念
GraphRAG是对RAG方法的增强,通过整合知识图谱中存储的结构化领域知识来增强检索,借助知识图谱中丰富的连接和语义关系,GraphRAG可以克服纯向量RAG的局限性,并提供更准确、更易于解释的查询响应。
GraphRAG本身并非独立产品,而是一种扩展、优化标准RAG的应用模式,是知识图谱和RAG系统的结合。
GraphRAG基本流程
GraphRAG包含一个图形数据库,作为发送给大模型的上下文信息的来源,如果向大模型提供从较大文档中提取的文本块,则可能缺乏大模型深入理解所接收文本块所需的上下文、事实正确性和语言准确性。与向LLM发送纯文本文档块不同,GraphRAG还可以向大模型提供结构化实体信息,将实体文本描述与其众多属性和关系相结合,从而促进LLM获得更深入的洞察。借助 GraphRAG,向量数据库中的每条记录都可以具有丰富的上下文表示,从而提高特定术语的可理解性,从而使大模型能够更好地理解特定主题领域。GraphRAG可以与标准RAG方法结合使用,以兼顾两者的优势——将图形表示的结构和准确性与文本内容的海量性相结合。
医疗领域GraphRAG应用架构
GraphRAG工作原理
与RAG类似,GraphRAG的流程涉及索引和查询。但在索引阶段,GraphRAG通过精心设计的提示和收集检查从文档中提取实体和关系。
通过使用大模型,GraphRAG可以识别实体(名称、类别和描述)和关系(实体之间的连接以及强度分数,例如 1-10)。
在下一步中,通过语义聚类,密切相关的节点被分组为称为社区的层次聚类。
在查询阶段,当用户开始提问时,系统会识别实体和关系,并将其与图谱索引进行比较,从而确定最相关的社区。然后,这些社区摘要会被传递给 大模型,以获得本地和全局不同级别的中间响应,其有用性得分为0到100。最终的全局答案是通过将根据有用性评分的中间响应传递给多阶段Map Reduce方法生成的。
由于GraphRAG能够捕捉数据实体之间的关系,因此非常适合回答复杂的查询。这被称为增强型上下文理解,通常也是除了具有平面数据检索功能的RAG系统之外,人们使用知识图谱的主要原因。
GraphRAG与RAG系统相比,GraphRAG的准确性和响应质量有所提高,有时甚至可提高3 倍!全局和局部摘要功能使 GraphRAG能够比RAG系统更好地与用户意图保持一致。
当然,GraphRAG在引入知识图谱检索方式后,在优化RAG的同时,也将带来计算成本的增加,以及查询效率的降低,具体应用过程中需要客观评估查询效率与准确性之间的平衡。
GraphRAG应用类型
根据问题的性质、领域和知识图谱中的信息,我们可以总结出几种不同的GraphRAG类型:
1. 图作为内容枢纽
图作为内容枢纽(Graph as a Content Hub),利用图结构(节点和边)将多源异构数据(如文本、图像、业务数据)整合为统一关联网络的技术架构。其核心是通过图模型建立跨域数据间的语义或逻辑连接,实现数据的动态聚合与智能调度。
关键特征:
-
节点(Node):表示实体(如用户、产品、文档)
-
边(Edge):表示实体间关系(如"购买"“隶属”“引用”)
-
动态关联:支持实时更新和跨系统数据融合
典型应用:
-
企业知识图谱(整合CRM、ERP等多系统数据)
-
内容推荐系统(通过用户-内容交互关系推荐)
类比说明:
就像一个大超市的智能货架系统,所有商品(数据)不是胡乱堆放的,商品之间用智能感应带连接(比如牛奶旁边自动关联饼干、麦片),找东西时,系统能立即告诉你所有相关商品放在哪。
应用案例:
电商推荐"买了手机的人还买了什么",疫情流调"查找密接者的密接"。
2. 图作为领域专家
图作为领域专家(Graph as a Subject Matter Expert),将领域知识(如行业规则、专家经验)建模为图结构,使图数据库具备类专家级的语义理解和推理能力。其本质是通过预定义的图模式(Graph Schema)和规则引擎,实现复杂业务逻辑的可计算化。
关键特征:
-
领域知识嵌入:显式定义实体间业务规则(如"担保→风险传导")
-
推理能力:支持路径查询、模式匹配等高级操作
-
可解释性:决策过程可通过图路径追溯
典型应用:
-
金融反欺诈(识别担保环路、空壳公司网络)
-
医疗辅助诊断(症状-疾病-药品关联推理)
类比说明:
相当于把老师傅的行业经验画成"关系地图",老中医的经验 → 变成"症状-药材-禁忌"关系网,银行风控专家的经验 → 变成"企业-担保-法人"风险图谱。
应用案例:
输入症状自动推荐中药配方,输入企业名称自动评估贷款风险。
3. 图作为数据库
图作为数据库(Graph as a Database),一种以图作为基础、专门优化存储和查询关系的数据管理系统。其采用原生图存储引擎(Native Graph Storage),直接以节点、边和属性的形式持久化数据,区别于关系型数据库的二维表结构。
关键特征:
-
原生图处理:支持索引无关的邻接查询(如"朋友的朋友")
-
高效遍历:复杂关系查询时间复杂度可达O(1)
-
灵活模式:支持动态增减节点/边类型
典型应用:
-
社交网络分析(好友推荐、社区发现)
-
供应链溯源(追踪上下游影响路径)
类比说明:
最像我们的人际关系网,传统数据库,比如通讯录,只记录每个人的联系方式,图数据库,会额外记录"谁和谁是同学",“谁和谁合作过项目”。
应用案例:
查"朋友的朋友中谁会修电脑",找"供应链中断的源头企业"。
GraphRAG应用场景
GraphRAG主要用于需要更高信任级别的应用程序和领域,以解决应用场景中的关键业务决策。以下是一些具体的应用场景示例:
应用场景 | 应用场景说明 |
法律与合规 | 审查和分析合同、案例、法律和法规。 |
投资研究 | 调查组织、人员、竞争对手、市场和趋势。 |
生物技术 | 访问知识图谱以进行药物发现和重新利用、临床试验和研究。 |
业务流程支持 | 将各种业务数据源集成到组织的统一视图中。 |
供应链 | 对产品和生产流程的风险评估、合规性和可持续性进行调查。 |
欺诈检测 | 识别和防止洗钱、保险欺诈和其他欺诈活动。 |
调查性新闻 | 揭示新闻报道和调查中大量数据的联系和模式。 |
GraphRAG 增强了大模型生成更准确、更相关且更符合语境的响应能力。这项技术不仅提升了输出的整体质量,还扩展了大模型处理复杂且细致入微的查询的能力。GraphRAG为从高级聊天机器人到复杂数据分析工具等各种应用开辟了新的RAG优化思路。
GraphRAG应用落地
开源的RAGFlow作为新一代检索增强生成框架,从v0.16.0开始,已经支持在知识库上构建知识图谱,让您能够跨知识库中的多个文件构建统一的图谱,当新上传的文件开始解析时,生成的图谱将自动更新,实际上可以理解为RAGFlow已经对GraphRAG能力进行了集成,我们可以通过RAGFlow快速体验GraphRAG的应用效果。
RAGFlow中知识图谱应用
RAGFlow在数据提取和索引之间添加了知识图谱构建步骤,如下所示。此步骤会根据您指定的分块方法生成的现有块,创建额外的块。
在RAG检索过程中融合知识图谱对于涉及嵌套逻辑的多跳问答尤其有用。当您针对包含复杂实体和关系的书籍或作品进行问答时,它们的表现优于传统的提取方法。
MultiHop-RAG
MultiHop-RAG基本概念
MultiHop-RAG即多跳RAG,是传统检索增强生成技术的进阶版本,是一种通过多轮迭代检索与推理解决复杂问题的技术框架。其核心在于将需要多步逻辑推理的查询分解为若干子问题,依次检索相关文档并动态重构查询,最终综合多轮检索结果生成准确答案。
在现实世界的问答场景中,许多问题并非通过单一信息片段就能直接回答。它们往往需要用户或系统在多个文档、多个事实之间进行“跳跃式”的推理和信息整合,才能得出最终答案。这类问题被称为多跳问题(MultiHop Questions) 。
单跳问题VS多跳问题
例如,我们询问“发明iPhone的公司,其现任CEO是谁?”这个问题,需要首先识别“发明iPhone的公司”是“苹果公司” ,然后进一步查询“苹果公司”的“现任CEO”是谁。这涉及至少两步的信息检索和推理。
传统RAG系统主要依赖于单次检索和生成,擅长处理基于单一或少量文档片段即可回答的简单问题。然而,面对多跳问题时,传统RAG的局限性就暴露无遗:
-
信息分散:多跳问题的答案通常分散在不同的文档或知识法一次性召回所有必要的证据。
-
推理链缺失:即使检索到所有相关信息,传统RAG也缺乏明确的机制来引导LLM按照逻辑顺序进行多步推理,将分散的信息连接起来。
-
上下文窗文窗口限制:为了回答多跳问题,可能需要将大量相关但分散的信息填充到LLM的上下口中,这容易超出LLM的输入长度限制,或导致LLM在长文本中“迷失”关键信息。
-
评估难度:评估多跳RAG系统的性能比评估传统RAG更具挑战性,因为不仅要看最终答案的准确性,还要考察推理过程的正确性和完整性。
为了应对这些挑战,MultiHop-RAG技术应运而生,旨在赋予RAG系统处理复杂、多步推理问题的能力。
MultiHop-RAG工作原理
MultiHop-RAG的核心思想是分治策略,将复杂问题分解为多个子问题,通过检索-生成-再检索的循环逐步逼近答案。
MultiHop-RAG基本流程
MultiHop-RAG实现了一个多步骤检索系统,随着系统接收到更多信息,其查询过程也会逐渐变得复杂。主要技术实现机制如下:
1. 迭代检索机制
MultiHop-RAG通过在文档检索中使用迭代系统来改进RAG,MultiHop-RAG主要采用以下步骤,以实现迭代检索机制:
第一步:获取初始文档集
第二步:获取相关实体并重新表述问题
第三步:根据细化查询获取其他文档
第四步:利用大模型构建最终答案
该迭代文档检索计划保证提供与多跳查询上下文相关的系统知识。
2. 查询扩展和重构
动态查询重构是MultiHop-RAG的基石之一。
从模型的角度并根据所包含的信息重新改写查询。
保证下一个检索到的部分包含尚未获得的知识。
应用大语言模型,例如GPT或DeepSeek,以改进查询。
3. 证据链接和答案综合
MultiHop-RAG提供额外的功能,包括MultiHop-RAG链接来自不同来源的证据。确保检索到的文档在逻辑上相互关联。借助多跳查询检索到的不同文档并不能保证包含单一上下文。最终提供的答案是通过加权证据逻辑构建的,以防止出现幻觉。
4. 知识图谱辅助
结构化推理:如前所述的GraphRAG,其知识图谱的结构化特性天然适合进行多跳推理。通过在图谱上进行路径搜索和关系遍历,可以高效地发现实体之间的多跳关联,并提取出推理链上的关键信息。这使得LLM能够基于更清晰的逻辑结构进行生成。
结合文本检索:知识图谱可以作为辅助,引导文本检索。例如,先在知识图谱中找到相关实体和关系,再用这些信息来增强或过滤文本检索的结果。
5. 多跳数据集与评估
为了验证MultiHop-RAG的效果,我们需要准备专门的多跳问答数据集,这些数据集包含复杂的查询、多跳的真实答案以及支撑证据,用于评估RAG系统从多个来源检索和推理信息的能力。这些数据集的构建通常需要半自动化甚至人工标注,以确保数据质量和推理链的完整性。评估指标不仅包括答案的准确性,还可能包括检索到的证据的完整性、推理路径的正确性等。
MultiHop-RAG查询的类型
MultiHop-RAG查询可分为四种不同类型,以实现不同的推理模式:
1. 推理
需要整合来自多个来源的信息得出结论。例如:“根据中国和美国近期宣布的气候政策,预计哪个国家将率先实现碳中和?”
2. 比较
涉及比较不同文档中的属性或特征。例如:“谷歌、苹果和微软三家公司中,哪家公司在2023年第三季度财报中报告的利润率最高?”
3. 时间性
关注不同文档中描述的事件之间的时间顺序或时间关系。例如:“美联储是在2023年11月通胀数据发布之前还是之后宣布利率调整的?”
4.空结果
看似可回答,但在语料库中缺乏足够支持证据的查询,用于测试系统识别信息不足的能力。例如:“虚构的HarmonyApple智能手机在发布会上,哪些技术获得广泛好评?”
每种查询类型都对RAG系统的检索和生成组件提出了独特的挑战,从而提供了一个全面的评估框架。
当前的嵌入模型难以捕捉多跳检索所需的复杂关系。研究结果表明,检索是当前RAG系统处理多跳查询时的一个主要瓶颈。
MultiHop-RAG应用场景
MultiHop-RAG主要适用于需要多步关联推理的复杂信息需求,例如:复杂事实性问答、企业级知识推理、金融风控、学术与科研、医疗诊断辅助、法律与合规、技术选型判断标准。
应用场景 | 应用场景说明 |
智能客服与技术支持 | 处理用户提出的复杂问题,这些问题可能涉及产品多个模块的功能、故障排查的多个步骤或跨部门的协作流程。 |
学术研究 | 帮助研究人员从海量论文中提取和整合分散的知识点,回答需要跨学科、跨领域知识的问题,帮助学习者和研究人员获得多步骤问题的正确答案。 |
商业智能与决策支持 | 分析市场报告、财务数据、供应链信息等,回答需要多维度数据整合和逻辑推理的商业问题。 |
法律与合规 | 在查阅多份法律文件后收集监管或判例法信息。 |
医疗保健查询 | 连接症状、疾病和治疗历史,以进行人工智能辅助诊断。 |
教育与学习 | 构建智能辅导系统,帮助学生理解复杂概念,回答需要多步思考和知识关联的问题。 |
在具体RAG落地应用过程中,是否采用MultiHop-RAG技术的判断标准可以初步遵循:当满足以下至少两条时,应优先选择多跳RAG。
-
问题需要关联两个以上的独立信息源
-
答案依赖中间推理步骤(无法直接检索)
-
存在潜在的隐藏关系(如股权控制、学术合作)
-
需审计推理过程与证据链(如法律、医疗场景)
MultiHop-RAG未来展望
根据目前的研究测试与应用效果跟踪,以下几点是多跳RAG系统需要改进的几个关键领域:
-
检索增强:当前基于嵌入的检索方法在处理多跳查询方面存在根本性困难。未来的研究可以探索查询分解策略,将复杂查询分解为更简单的子查询。
-
推理能力:即使拥有完美的检索能力,大模型仍难以应对复杂的推理任务。提升模型跨文档关联信息的能力仍然至关重要。
-
查询特定优化:不同查询类型的性能差异很大,这表明不同的推理模式可能需要专门的方法。
-
基于代理的方法:多跳查询的复杂性可能需要更复杂的基于代理的系统,该系统可以跨多个检索步骤主动搜索和连接信息。
MultiHop-RAG的引入为RAG优化提供了可行的技术路线,让我们能够搭建处理现实复杂查询的RAG系统。通过解决已发现的局限性,未来的RAG系统可以更好地满足现实世界中经常需要多跳推理的复杂检索与查询任务。
HyDE
HyDE基本概念
HyDE(假设文档嵌入)是一种信息检索技术,通过生成代表查询理想答案的“假设”文档来改进搜索结果。HyDE并非直接将用户的查询与现有文档匹配,而是首先使用语言模型创建一个能够回答查询的合成文档。然后,该合成文档被转换为嵌入(数值向量),并与数据库中真实文档的嵌入进行比较。最接近的匹配结果将作为结果返回。其核心思想是,假设文档比原始查询文本更能捕捉查询的意图和上下文,从而实现更准确的检索。
HyDE与传统RAG的核心差异在于检索逻辑的优化方式,传统RAG直接对用户原始查询进行向量化检索,而HyDE先利用大模型生成一个符合问题意图的假设性答案文档(如虚构的详细回答模板),再将此假设文档转化为嵌入向量进行检索,最后结合真实文档生成最终答案。
这种间接检索策略能显著提升对模糊查询(如开放性问题、抽象需求)的适应性,通过假设文档的桥梁作用弥合用户简单提问与复杂知识之间的语义鸿沟,这种方法可以提供更准确、更符合上下文相关性的结果,尤其是在处理复杂或细微的查询时。但这种方法会额外增加生成假设文档的计算步骤。
HyDE工作原理
HyDE通过生成假设性文档作为检索中介,将模糊的用户查询转化为语义丰富的虚拟文档,再基于此文档嵌入进行精准检索,最终生成答案。其本质是"以生成辅助检索"的二阶段策略。
HyDE基本交互示意
HyDE不是使用查询及其生成的向量直接在向量数据库中搜索,而是通过采用类似于ChatGPT的语言学习模型来响应查询,从而生成虚拟文档。
使用HyDE的RAG流程
HyDE的工作原理可概括为如下三个关键步骤:
1. 生成假设文件
HyDE会引导大语言模型(例如:DeepSeek)创建一份假设文档来响应用户的查询。虽然该文本的目的是识别相关模式,但其中可能存在错误。
2. 无监督编码
然后使用无监督对比编码器将生成的假设文档编码为嵌入向量。基于向量相似性,该向量指定语料库嵌入空间中检索相似真实文档的区域,捕捉文档语义的文档密集数字表示。
3.检索过程
HyDE在整个检索过程中使用语料库来查找与编码的假设文档最具可比性的实际文档。通常会采用混合检索,HyDE 不会检索整个文档,而是根据查询检索最相关的向量嵌入。此过程结合使用检索和生成技术来缩小并优化模型的响应范围。
我们可以将HyDE视为一个智能过滤器,用于筛选最佳知识片段。这些嵌入就像地图一样,可以帮助模型快速找到最相关的信息,即使这些信息深藏在海量数据集中。
HyDE的优势
HyDE之所以引起广泛关注,是因为即使在缺乏相关知识标注的情况下,它也能很好地发挥作用。它将相关性建模的负担从传统的检索模型转移到一个功能齐全、足以处理各种活动和查询的大语言模型上。这种策略为我们带来以下优势:
-
零样本检索: HyDE不需要大量的标记样本数据集即可实现“开箱即用”的功能。
-
跨语言:它适用于多语言搜索应用程序,因为它在多种语言中都能很好地运行。
-
灵活性: HyDE的方法使其能够适应各种工作,而无需进行大量的微调。
-
复杂查询更精准:由于HyDE通过嵌入检索更多相关信息,因此它可以更精准地处理更复杂的查询。无论您询问的是新兴技术还是多方面的科学概念,HyDE都能提供更细致入微、更相关的答案。
-
规模化效率:HyDE 的混合嵌入方法使其具有极高的可扩展性。当处理海量数据(例如科学期刊或数百万个网页)时,HyDE仍然可以提供快速准确的响应,而不会因检索数据量太大导致效检索率低下。
-
语境感知:得益于文档嵌入,HyDE能够理解单词、短语和概念之间的语义关系,从而提高答案的语境相关性。
通过实施HyDE,项目实施人员可以创建更强大、更具有上下文感知能力的信息检索系统,从而在问答、内容推荐等应用中取得更佳效果。
传统RAG与HyDE的区别
传统的RAG系统会嵌入查询,会检索与查询文字匹配的文档,但会错过上下文相关的信息,当语料库中某些类型的查询的数据很少时,传统RAG检索质量就会下降。HyDE 通过使用假设文档作为中介来解决这些问题,从而更有效地捕捉查询的意图。
两者的本质区别可简单概括为"直接检索问题"与"检索生成答案的蓝图"的差异,下图清晰地展示了标准RAG与HyDE在响应用户提问时的处理逻辑与流程的差异。
传统RAG VS HyDE
下表从具体应用中的不同特性对传统RAG与HyDE进行了对比。HyDE通过"假设性文档"作为检索桥梁,特别适合解决模糊查询问题,但牺牲了部分可解释性;传统RAG更依赖现有知识库的完整性,适合结构化数据场景。
特性 | 传统RAG | HyDE |
核心机制 | 直接从数据库中检索文档 | 首先生成假设性文档,再检索相似内容 |
适用场景 | 知识库庞大的情况 | 数据稀缺或模糊的场景 |
系统复杂度 | 双模型系统(检索器+生成器) | 假设生成 + 嵌入搜索 |
灵活性 | 受限于知识库现有数据 | 可生成中间答案假设 |
可解释性 | 答案更容易溯源至原始文档 | 答案背后的逻辑可能较不透明 |
典型应用 | 聊天机器人、问答系统、推荐系统 | 语义搜索、创意生成、知识发现 |
HyDE应用场景
HyDE这种灵活的方法特别适合那些难以用精确关键词表达查询意图的情况,精度要求大于反馈时效要求,且数据集包含密集且上下文丰富的信息的场景,例如:缺乏关键词匹配的模糊查询、高语义抽象问题、少样本检索增强,使得HyDE成为处理复杂、抽象或者跨学科问题的强大工具。
例如,在技术支持系统、法律文档检索或学术研究中,用户通常有复杂的需求,而这些需求无法用简单的关键词轻松表达。但是,HyDE会增加额外的计算消耗,因为它需要为每个查询生成一个假设文档。
|
应用场景
|
应用场景说明
|
| — | — |
|
法律与合规
|
审查和分析合同、案例、法律和法规。通过生成假设性文档来辅助检索相关的法律条文或判例,帮助律师快速定位所需信息。
|
|
学术研究
|
查找特定主题的学术论文或研究报告。对于缺乏明确关键词的研究领域,HyDE可以通过生成假设性的综述文章来提高检索相关文献的准确性。
|
|
医疗健康
|
检索医学文献支持临床决策。医生可以输入患者的症状描述,系统生成假设性病历摘要,并据此查找最相关的医学文献或治疗方案。
|
|
金融投资
|
分析市场趋势及投资机会。投资者可以提出关于某行业未来发展的模糊问题,系统基于此生成假设性报告,并从数据库中检索相关信息以供参考。
|
|
技术创新与研发
|
探索新技术方向或解决方案。研究人员可以根据初步想法生成假设性的技术白皮书,利用这些文档向量去发现相关的现有技术和潜在的研究方向。
|
|
教育培训
|
提供个性化的学习资源推荐。根据学生的学习进度和个人兴趣点生成假设性的学习计划或课程大纲,从而推荐最适合的学习材料。
|
|
市场营销
|
制定市场营销策略。营销人员可以根据产品特点或目标群体的需求生成假设性的市场调研报告,以此为基础寻找成功的案例研究或竞争对手分析。
|
|
知识管理与企业搜索
|
改善企业内部知识发现效率。员工可以通过描述他们想要解决的问题或寻找的信息类型,系统自动生成假设性文档并进行匹配,帮助找到隐藏在大量数据中的有价值信息。
|
在具体项目实施过程中需要考虑计算效率与结果准确性之间的平衡,如果您的系统优先考虑速度(例如实时聊天),那么传统的RAG嵌入可能就足够了。但如果精度至关重要,并且您有资源在检索过程中运行大语言模型,那么HyDE可以显著提升召回效果。此外,还可以将HyDE与混合搜索技术相结合——例如先使用关键词筛选结果,然后再使用HyDE进行细化——以平衡效率和效果。
RAGFusion
RAGFusion基本概念
RAG-Fusion建立在原始RAG模型的基础上,该模型将检索与生成式转换器相结合,以生成更符合语境、更符合事实的输出。RAG会检索相关文档并将这些信息整合到生成过程中,而RAG-Fusion则创新地在检索到的文档通过模型处理之前对其进行了早期融合。这使得模型能够同时集成多个文档,从而提升其生成更连贯、语境更丰富且更基于事实的响应的能力。
RAG-Fusion工作原理
RAG-Fusion使用与RAG相同的技术:Python 语言、Elasticsearch或Pinecone等向量搜索数据库,以及DeepSeek等大模型。RAG-Fusion的工作方法与RAG相同;但是,它增加了一些步骤,例如查询生成和结果重新排序,从而改善了响应质量。
传统的检索增强方法通常根据查询选择少量文档,并在后期处理阶段整合其信息。而RAG-Fusion采用早期融合机制,在早期阶段整合这些文档,从而使模型能够处理更大的检索文档集并合成更复杂的知识。
RAG-Fusion通过将检索到的文档融合成一个统一的批次,该模型可以跨多个数据点保留上下文和细微差别。这种早期融合不仅降低了出现冲突或不连贯响应的风险,还增强了模型回答复杂、多方面问题的能力。
在RAG-Fusion中,不是生成一个查询,而是生成多个查询。如下图所示,我们生成了三个查询。对于每个查询,执行检索操作,并根据与查询的相似性对结果进行排序。如我们所见,我们对每个检索查询的文档进行了排名。然后,我们需要将这些结果合并在一起以得出最终排名。此合并使用互惠秩融合算法完成。
RAG-Fusion工作流程
RAG-Fusion系统比传统RAG统采用了更先进的检索和生成方法,它将原始用户查询分解为从数据库、研究报告和视频等不同来源提取的更具体的子查询。 然后,RAG-Fusion使用一种名为“互易秩融合”(RRF)的技术,为子查询分配分数,并根据其与用户原始查询的相关性进行排序。重新排序后的信息随后被汇总(或称“融合”),以创建全面准确的响应。
RAG-Fusion工作原理:
-
通过大模型将用户的查询转换为相似但不同的查询,从而执行查询复制
-
初始化向量搜索原始查询及其生成的相似查询,生成多个查询。
-
使用RRF组合并优化所有查询结果。
-
选择所有具有新查询的顶级结果,为大模型提供足够的材料,以创建考虑所有查询和重新排序的结果列表的输出响应。
RAG-Fusion工作步骤:
-
分解复杂查询:它生成多个子查询来涵盖用户输入的不同方面。
-
更智能的检索:为每个子查询 获取k 个相关文档,以确保全面覆盖。
-
相关性排名:使用一种称为“倒数排名融合”的方法,根据文档的整体相关性对其进行评分和重新排序。
-
优化提示:选择排名靠前的文档来构建提示,以获得更准确、上下文更丰富的响应。
RAG-Fusion背后的复杂性 — RRF:
RRF(互惠排序融合)是一种将多个搜索结果合并起来以生成单一统一排名的技术。单个查询无法涵盖用户查询的所有方面,而且它可能过于狭窄而无法提供全面的结果;因此,多查询生成必须考虑所有不同元素,并提供精心挑选的答案。
RRF 的工作原理是合并不同搜索查询的排名,从而增加所有相关文档出现在最终结果中的概率。此外,它不依赖于搜索引擎分配的绝对分数,而是相对排名,因此合并不同比例或分数分布的结果变得切实可行。
RAG-Fusion的优势与局限性
与传统的单文档RAG相比,RAG-Fusion具有以下几个优势:
-
更全面的答案:结合来自多个来源的信息,RAG-Fusion可以提供更完整、更细致的答案,尤其是对于复杂的问题。
-
减少偏见:依赖单一文档可能会引入偏见。RAG-Fusion通过考虑多种视角来解决这个问题。
-
提高准确性:获取更广泛的信息可以带来更准确、更符合事实的回应。
任何算法都有其局限性,RAG-Fusion也不例外,它主要有两个潜在的缺点:
-
RAG-Fusion模型通过多次查询生成达到查询深度的能力可以提供详细的答案,更像是一个过度解释的答案。
-
多查询输入和多样化的文档集会强调语言模型的上下文窗口,导致输出不太连贯。
RAGFusion应用场景
RAG-Fusion主要适用于需要高精度、多维度检索的复杂场景,通过融合多种检索策略(如关键词搜索、向量检索、HyDE等)提升结果覆盖率和准确性。
典型场景包括:
-
开放域问答(如结合事实性检索与语义推理回答复杂问题);
-
跨模态搜索(同时处理文本、图像等异构数据源);
-
企业知识库查询(需平衡结构化数据与非结构化文档的检索需求);
-
争议性话题分析(通过多路检索验证信息一致性,减少偏差)。其核心优势在于综合不同检索方法的强项,尤其适合对召回率和准确率要求均高的任务。
应用场景 | 应用场景说明 |
---|---|
客户支持和技术协助 | 对于工程和 IT 等通常需要详细文档知识的行业,RAG-Fusion 有助于简化支持流程。它无需依赖通用的故障排除步骤,而是可以检索特定于产品的文档并将其融合,从而提供精确的说明。 |
销售和客户管理 | 销售团队受益于 RAG-Fusion 的能力,它能够将产品文档与预先训练好的知识相结合,生成高度明智的客户咨询答案。这种集成使销售专业人员能够通过提供技术见解和相关用例,更有效地推销产品。 |
增强创意写作和技术写作 | 无论是撰写文章、研究论文还是生成详细报告,RAG-Fusion 都能通过融合来自不同来源的信息,提供更佳的一致性和深度,从而生成更连贯、更翔实的叙述。 |
电子商务推荐 | RAG-Fusion 可通过合并结构化数据(库存)、非结构化数据(客户评论)和多媒体(产品图像或视频)来实现个性化产品推荐。 |
医疗保健支持 | 行业专业人士可以使用 RAG-Fusion 将结构化数据(患者记录)与非结构化文本(研究论文)和成像信息(X 射线)相集成,以提供更全面的医疗保健支持。 |
RAG-Fusion发展潜力
RAG-Fusion早期文档融合的意义深远,它不仅提升了AI处理复杂查询的能力,还为我们在知识密集型行业与AI的互动开辟了新的可能性。随着这项技术的不断发展,它可能会重新定义检索增强模型在法律、医疗保健和教育等注重准确性和深度的领域的应用。
RAG-Fusion通过推进检索和生成的集成,代表着我们朝着更智能、更情境感知的AI系统迈出了重要的一步。这项创新使AI成为商业和研究环境中更有效的解决问题和决策工具。
RAG-Fusion是检索增强模型演进的重要一步,通过早期文档融合提升了性能。随着人工智能的复杂性和能力不断提升,像RAG-Fusion这样的模型将在开启知识生成和检索的新可能性方面发挥关键作用。
2024最新版优快云大礼包:《AGI大模型学习资源包》免费分享**
一、2025最新大模型学习路线
一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1级别:AI大模型时代的华丽登场
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理,关键技术,以及大模型应用场景;通过理论原理结合多个项目实战,从提示工程基础到提示工程进阶,掌握Prompt提示工程。
L2级别:AI大模型RAG应用开发工程
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3级别:大模型Agent应用架构进阶实践
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体;同时还可以学习到包括Coze、Dify在内的可视化工具的使用。
L4级别:大模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握;而L3 L4更多的是通过项目实战来掌握大模型的应用开发,针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。
二、大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
三、大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
四、大模型项目实战
学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
五、大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取