详解RAG技术:大模型时代让AI更懂你的智能知识引擎 -流程、优化、扩展

部署运行你感兴趣的模型镜像

一、RAG技术解析:从概念到发展历程

1.1 什么是RAG?——突破传统AI的知识边界

想象一下,你向朋友询问某个专业问题时,朋友如果仅凭记忆回答,可能会遗漏重要信息甚至出错。同理,传统AI生成模型(如ChatGPT)虽然能流畅对话,但存在两个致命缺陷:

- 知识滞后:无法获取训练数据之外的新信息

- 幻觉风险:会编造看似合理实则错误的内容

RAG(检索增强生成)技术应运而生,它如同给AI装上"实时百科全书"。简单地说,RAG 就是在将数据发送给 LLM 之前,从数据中找到相关信息并将其注入到提示中的方法。这样,LLM 就能获得相关信息,并能利用这些信息进行回复,从而降低出现幻觉的概率。

RAG(Retrieval-Augmented Generation)检索增强生成是人工智能领域的突破性技术,通过结合信息检索与文本生成的优势,有效解决了传统大模型的知识滞后和幻觉问题。其核心原理是:当接收到用户提问时,系统首先从结构化/非结构化知识库中检索相关文档片段,再将检索结果与原始问题共同输入大语言模型,生成更准确、更可靠的回答。

RAG 从翻译字面意思就是:问题->检索数据->模型根据问题和相关数据生成增强答案。

1.2 RAG发展里程碑

- 2020年起源:Meta AI团队在《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》论文中首次提出RAG概念,开创性地将BERT检索器与BART生成器结合

- 2021年演进:出现Hybrid RAG架构,引入稠密向量检索(Dense Retrieval)技术,显著提升语义匹配能力

- 2022年突破:LangChain等框架的兴起,推动RAG技术进入工程化落地阶段

- 2023年爆发:随着LlamaIndex、Dify等工具平台的出现,RAG开始广泛应用于企业知识管理、智能客服等场景

1.3 RAG应用场景

1. 企业知识管理:整合分散在钉钉、企业微信等平台的文档资料,构建统一知识门户。

2. 客户服务领域:智能客服系统(RAG引擎 + 情感分析模型 + 话术推荐系统),7×24小时多语言服务,上下文感知对话(最大支持20轮对话记忆),工单自动生成(准确率92%)。

3. 医疗健康领域:临床决策支持(电子病历智能解析(ICD-10自动编码)、多模态诊断支持(CT影像+检验报告联合分析)、药品冲突实时预警)

4. 教育科研场景:智能教研助手 (论文研读、教学资源生成、科研发现)

5. 金融合规领域:风险控制应用、券商合规审查。

6. 制造业创新应用:智能运维系统 设备传感器数据 → 故障模式检索 → 维修方案生成 → 备件库存验证 → 工单自动派发

7. 法律科技应用:智能法务助手。法律条款多维度检索(支持时效性验证)、相似案例判决预测、合同智能审查(风险点自动标记)。

二、RAG核心流程

RAG 核心流程可以分为两个不同的阶段:**索引**和**检索**。

索引阶段

在建立索引阶段,要对文档进行预处理,以便在检索阶段进行高效搜索。

这一过程因所使用的信息检索方法而异。对于向量搜索,这通常包括清理文档、用附加数据和元数据充实文档、将文档分割成更小的片段(又称分块)、嵌入这些片段,最后将它们存储在嵌入存储区(又称向量数据库)中。

索引阶段通常是离线进行的,意味着它不需要终端用户等待完成。例如,可以通过每周一次在周末重新索引文档的定时任务来实现。负责索引的代码也可以是一个单独的应用程序,只处理索引任务。

不过,在某些情况下,最终用户可能希望上传自己的自定义文档,以便 LLM 能够访问这些文档。在这种情况下,应在线执行索引,并将其作为主应用程序的一部分。

下面是索引阶段的简化图:

文档通过文件分割方法分割为多个Segments,之后调用嵌入模型 比如BAAI/bge-m3模型就可以将文档Segments转化为向量的形式,然后再将其保存到向量数据库中,完成索引地建立。

在这里插入图片描述

检索阶段

检索阶段通常是在线进行的,用户提交问题后,索引文档就会给出答案。

这一过程因所使用的信息检索方法而异。对于向量检索,这通常包括嵌入用户的查询(问题),并在嵌入存储中执行相似性搜索。然后将相关片段(原始文档的片段)注入到提示中,并发送到 LLM,生成最终结果。

以下是检索阶段的简化示意图:

用户问题在向量数据库进行检索,之后将用户问题与检索内容送入大模型中生成最终回复。

在这里插入图片描述

三、RAG优化策略

RAG的优化策略可以从整个RAG的过程去分析。

RAG的整个流程可以被分为三个部分:

  • 数据预处理阶段

    1.文档解析(PDF/Word/Markdown等格式处理)

    2.文本分块(滑动窗口法、语义分割法)

    3.向量化处理(使用text-embedding-ada-002等模型)

  • 检索增强阶段:

    1.混合检索策略(关键词检索+向量检索)

    2.多路召回与结果重排序

    3.上下文窗口优化

  • 生成优化阶段:

    1.Prompt工程(指令模板设计)

    2.结果后处理(引用标注、格式标准化)

    3.反馈学习机制(点击日志分析)

3.1 数据预处理阶段的优化策略

- 原始文档清洗

通过 人工或者直接将文档给到大模型的方式对原始数据文档进行总结提炼,形成更加概括的文档,最好是一问一答形式的文档,方便后期检索。

- 文本分块优化

文本分块处理也有多种选择,比如通过正则匹配的形式分块、根据段落分块、根据字符数进行滑动窗口分块等等,对于不同的文档可能适用于不同的分块算法。因此其实可以针对不同类型的文档其实可以使用不同的分块算法,不同的文档可以对应不同的向量数据库,创建多个向量数据库提升检索效率。

- 文本向量化处理

分块的文档最终需要使用嵌入模型将文本文档转换为数字向量,可以尝试不同的嵌入模型。然后,它根据查询向量和文档向量之间的余弦相似度或其他相似度/距离度量来查找和排列文档,从而捕捉到更深层次的语义。

3.2 检索增强阶段的优化策略

- 检索方式

检索可以通过向量检索、全文检索的方式,可以采用向量检索+全文检索的混合检索方式实现,最大限度寻找到与问题相关的内容,全文检索可以使用ES数据库提升检索能力。

- 问题转化

有时候用户输入的问题或者遇到的问题并不能直接匹配数据库的信息,就需要对问题进行处理。常用方法有:1.通过大模型将问题进行扩展,比如问题是:请告诉我关于AI的内容。问题就可以被转换为:AI是什么?AI有哪些相关内容?等问题,然后使用这些问题进行搜索。2.可以将原始问题进行压缩,以避免无关信息的干扰。

- 多路召回与结果重排序

多路召回是指针对同一用户问题,同时使用多种不同的检索策略(如关键词检索、向量检索、图检索等)从知识库中获取候选文档,再通过融合排序得到最优结果的策略。多路召回可以进行调试优化,结果重排序也可以使用不同的重排算法或者调用大模型优化。

- 上下文窗口优化

解决大模型输入长度限制与知识检索需求之间矛盾的核心技术。

3.3 生成优化阶段的优化策略

- Prompt工程

优化提示词,引导大模型给出合理输出

你是⼀个问答机器⼈。``你的任务是根据下述给定的已知信息回答⽤户问题。``已知信息:``{context} # {context}就是检索出来的⽂档``⽤户问:``{question} # {question} 就是⽤户的问题``如果已知信息不包含⽤户问题的答案,或者已知信息不⾜以回答⽤户的问题,请直接国复“我⽆法回答您的问``题”。``请不要输出已知信息中不包含的信息或答案。``请⽤中⽂回答⽤户问题。

- 结果后处理

对于大模型输出结果进行敏感词过滤,对于大模型响应信息进行处理等。

- 反馈学习机制

对于每次的回复收集反馈信息,用于优化整个流程架构。

四、RAG实现框架

- Haystack by deepset-ai

- RAGFlow by infiniflow

- Dify

- langchain && langchain4j

如何系统的去学习大模型LLM ?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

事实上,抢你饭碗的不是AI,而是会利用AI的人。

科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?

与其焦虑……

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。

基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近70次后,终于把整个AI大模型的学习门槛,降到了最低!

在这个版本当中:

第一您不需要具备任何算法和数学的基础
第二不要求准备高配置的电脑
第三不必懂Python等任何编程语言

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉优快云大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

一、LLM大模型经典书籍

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

在这里插入图片描述

二、640套LLM大模型报告合集

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、LLM大模型系列视频教程

在这里插入图片描述

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

在这里插入图片描述

五、AI产品经理大模型教程

在这里插入图片描述

LLM大模型学习路线

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。

  • 内容

    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。

  • 内容

    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.3 流水线工程
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。

  • 内容

    • L3.1 Agent模型框架
    • L3.2 MetaGPT
    • L3.3 ChatGLM
    • L3.4 LLAMA
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。

  • 内容

    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉优快云大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)👈

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值