一文详解RAG

部署运行你感兴趣的模型镜像

1. 什么是RAG?

检索增强生成(Retrieval-Augmented Generation, RAG)是一种结合信息检索与文本生成的技术。通过动态检索外部知识库,RAG能够在生成过程中引入实时、准确的上下文信息,从而提升生成内容的可靠性和相关性。

与传统生成模型(如纯GPT架构)相比,RAG的核心差异在于其动态检索机制。传统模型依赖预训练时学习的静态知识,而RAG通过检索模块实时获取最新或领域特定信息,解决了模型知识滞后的问题。

RAG的优势包括:

  • 知识实时性:可接入动态更新的数据库或文档。
  • 可解释性:生成结果基于检索到的具体内容,便于溯源。
  • 灵活性:适用于开放域问答、事实核查等需要外部知识的场景。

2. RAG 的工作原理

RAG系统由检索模块和生成模块组成。检索模块从大型文档库中筛选与输入相关的片段,生成模块则基于检索结果和原始输入生成最终内容。

检索模块通常采用稠密向量检索(如DPR)或稀疏检索(如BM25)。输入查询被编码为向量,与文档库中的向量计算相似度,返回最相关的Top-K文档片段。

生成模块将检索到的片段与原始输入拼接,输入至预训练语言模型(如GPT-3)。模型通过注意力机制融合检索内容,生成连贯且信息丰富的输出。

协同机制的关键在于:

  • 检索与生成共享统一的训练目标(如负对数似然损失)。
  • 端到端微调时,检索模块的参数可随生成模块一同优化。
    在这里插入图片描述

3. 构建 RAG 系统的关键技术

高效的检索方法

  • 稠密检索:使用双编码器(如BERT)将查询和文档映射到同一向量空间,通过内积计算相似度。
    • 公式:s(q,d)=EncoderQ(q)T⋅EncoderD(d)s(q,d) = \text{Encoder}_Q(q)^T \cdot \text{Encoder}_D(d)s(q,d)=EncoderQ(q)TEncoderD(d)
  • 稀疏检索:基于词频统计(如TF-IDF或BM25),适合术语明确的场景。

生成模型选择

  • 通用模型:GPT系列、T5等,擅长处理多任务生成。
  • 领域适配:可在特定数据上继续预训练生成模型,提升领域术语的生成质量。

数据对齐

  • 检索结果需与生成任务强相关。可通过以下方式优化:
    • 在训练时引入“硬负例”提升检索区分度。
    • 对检索片段进行重排序(如使用Cross-Encoder)。

4. 如何实现一个简单的 RAG 系统

工具链

  • 检索库:FAISS(高效向量检索)、Elasticsearch(全文检索)。
  • 生成模型:Hugging Face的transformers库(如facebook/rag-token)。

数据处理与索引构建

  1. 文档预处理:分块、清洗(去除HTML标签等)。
  2. 向量化:用预训练模型(如sentence-transformers/all-MiniLM-L6-v2)编码文档块。
  3. 构建FAISS索引:将向量存入索引,支持快速近邻搜索。

端到端流程

from transformers import RagTokenizer, RagRetriever, RagSequenceForGeneration

# 初始化RAG组件
tokenizer = RagTokenizer.from_pretrained("facebook/rag-sequence-nq")
retriever = RagRetriever.from_pretrained("facebook/rag-sequence-nq", index_name="exact")
model = RagSequenceForGeneration.from_pretrained("facebook/rag-sequence-nq", retriever=retriever)

# 输入查询
input_ids = tokenizer("What is RAG?", return_tensors="pt").input_ids
outputs = model.generate(input_ids)

# 解码生成结果
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

调优建议

  • 检索模块:调整Top-K值,平衡召回率与计算开销。
  • 生成模块:通过Prompt工程控制输出风格。
  • 评估指标:使用ROUGE、BLEU或人工评估生成质量。

您可能感兴趣的与本文相关的镜像

Qwen3-8B

Qwen3-8B

文本生成
Qwen3

Qwen3 是 Qwen 系列中的最新一代大型语言模型,提供了一整套密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3 在推理、指令执行、代理能力和多语言支持方面取得了突破性进展

一、课程优势本课程有陈敬雷老师的清华大学出版社配套新书教材《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)。新书配合此实战课程结合学习,一静一动,互补高效学习!配套书籍京东自营地址:https://item.jd.com/15073742.html本课程由互联网一线知名大牛陈敬雷老师全程亲自授课,技术前沿热门,是真正的互联网工业级实战项目。二、课程简介 大模型RAG项目落地优化策略实战课做RAG项目总卡在落地环节?数据预处理混乱、检索慢且不准、生成回答质量差,看着技术热却没法落地高价值应用?「大模型RAG项目落地优化策略实战课」专为破解这些难题而来!12大核心优化策略,从文档预处理到生成回答全链路拆解,帮你扫清RAG落地障碍。不管你是刚接触RAG想避开落地坑,还是资深从业者要提升项目效率与精准度,这门课都能让你摆脱“知道优化却不知怎么落地”的困境,把实战策略转化为RAG项目的落地能力,让项目从“能跑”到“好用”,在AI业务落地中快速出成果!课程核心亮点:直击RAG落地痛点,全链路优化有方法课程聚焦RAG落地全流程关键堵点,每个策略都带实战经验支撑:  课程大纲-大模型RAG项目落地优化策略实战课    1.    文档预处理优化策略实战经验:RAG 落地 “第一关”!    2.    文本分块优化策略实战经验:掌握 RAG “信息拆解艺术”    3.    文本向量化优化策略实战经验:给信息贴对 “语义标签”    4.    元数据优化策略实战经验:给向量加个 “隐形标签”,让搜索快    5.    多级索引和路由优化策略实战经验:给查询搭好 “快速通道”    6.    索引与查询算法优化策略实战经验:玩转 “速度 - 精度平衡术    7.    查询转换/改写优化策略实战经验:让查询 “会说话”!    8.    检索参数优化策略:别忽视 “微调小操作”!调对权重、设对数量    9.    高级检索优化策略:解锁 RAG “黑科技”    10.    重排模型优化策略实战:给检索结果 “智能排座次”    11.    提示词优化策略:保障大模型输出准确性与相关性的关键策略​    12.    大模型生成回答优化策略:选对模型 + 用好框架,生成高质量回复三、老师介绍陈敬雷  充电了么创始人,CEO兼CTO陈敬雷,北京充电了么科技有限公司创始人,CEO兼CTO,十几年互联网从业经验,曾就职于用友网络、中软集团、凡客诚品、唯品会、猎聘、人民日报(灵思云途)、北京万朝科技,曾任架构师、首席技术官、首席科学家等职务,对业务领域B端、C端、电商、职场社交招聘、内容文娱、营销行业都有着丰富的经验,在技术领域,尤其在大数据和人工智能方向有丰富的算法工程落地实战经验,其中在猎聘任职期间主导的推荐算法系统项目获得公司优秀项目奖,推荐效果得到5倍的提升。此外,陈敬雷著有清华大学出版社四本人工智能书籍,分别是《分布式机器学习实战》《自然语言处理原理与实战》《GPT多模态大模型与AI Agent智能体》《DeepSeek大模型与具身智能实践》,颇受好评。同时陈敬雷还是知名大数据人工智能讲师,研发了上百门课程,总计有30万学员。四、《GPT多模态大模型与AI Agent智能体》书籍配套视频课程介绍:陈敬雷老师的京东自营书名标题: GPT多模态大模型与AI Agent智能体(跟我一起学人工智能)《GPT多模态大模型与AI Agent智能体》(跟我一起学人工智能)是一本2025年清华大学出版社出版的图书,作者是陈敬雷,本书深入探讨了GPT多模态大模型与AI Agent智能体的技术原理及其在企业中的应用落地。全书共8章,从大模型技术原理切入,逐步深入大模型训练及微调,还介绍了众多国内外主流大模型。LangChain技术、RAG检索增强生成、多模态大模型等均有深入讲解。对AI Agent智能体,从定义、原理到主流框架也都进行了深入讲解。在企业应用落地方面,本书提供了丰富的案例分析,如基于大模型的对话式推荐系统、多模态搜索、NL2SQL数据即席查询、智能客服对话机器人、多模态数字人,以及多模态具身智能等。这些案例不仅展示了大模型技术的实际应用,也为读者提供了宝贵的实践经验。本书适合对大模型、多模态技术及AI Agent感兴趣的读者阅读,也特别适合作为高等院校本科生和研究生的教材或参考书。书中内容丰富、系统,既有理论知识的深入讲解,也有大量的实践案例和代码示例,能够帮助学生在掌握理论知识的同时,培养实际操作能力和解决问题的能力。通过阅读本书,读者将能够更好地理解大模型技术的前沿发展,并将其应用于实际工作中,推动人工智能技术的进步和创新。五、配套书籍目录:第1章 大模型技术原理1.1 大模型技术的起源、思想1.2 基于Transformer的预训练语言模型1.2.1 编码预训练语言模型1.2.2 解码预训练语言模型1.2.3 基于编解码架构的预训练语言模型1.3 提示学习与指令微调1.3.1 提示学习1.3.2 指令微调1.4 人类反馈强化学习1.4.1 强化学习1.4.2 PPO算法1.4.3 大模型人类反馈强化学习对齐1.5 GPT智能涌现原理与AGI通用人工智能1.5.1 什么是智能涌现1.5.2 思维链1.5.3 上下文学习能力1.5.4 指令理解1.5.5 通用人工智能第2章 大模型训练及微调2.1 大模型训练概述2.2 分布式训练的并行策略2.2.1 数据并行2.2.2 模型并行2.2.3 混合并行2.2.4 并行计算框架2.3 预训练模型的压缩2.3.1 模型压缩方案概述2.3.2 结构化模型压缩策略2.3.3 非结构化模型压缩策略2.3.4 8位/4位量化压缩实战2.4 大模型微调方法2.4.1 Prefix Tuning微调2.4.2 P-Tuning V1微调2.4.3 P-Tuning V2微调2.4.4 LoRA微调2.4.5 QLoRA微调2.5 基于旋转位置编码RoPE的长文本理解2.5.1 RoPE技术原理2.5.2 RoPE关键特性第3章 主流大模型3.1 国内大模型3.1.1 智谱清言ChatGLM3.1.2 百川智能3.1.3 百度文心一言3.1.4 阿里巴巴通义千问3.1.5 腾讯混元3.1.6 华为盘古3.1.7 360智脑3.1.8 科大讯飞星火3.1.9 智源悟道大模型3.1.10 月之暗面Kimi3.1.11 复旦大学MOSS3.1.12 零一万物3.1.13 字节跳动豆包大模型3.2 国外大模型3.2.1 OpenAI GPT-4o3.2.2 Meta LLaMA3.2.3 Anthropic Claude3.2.4 谷歌Gemini和开源Gemma3.2.5 Mistral Large3.2.6 xAI Grok3.3 垂直类大模型3.3.1 HuatuoGPT3.3.2 BianQue3.3.3 BenTsao3.3.4 XrayGLM3.3.5 DoctorGLM3.3.6 ChatMed3.3.7 度小满轩辕3.3.8 BloombergGPT3.3.9 LawGPT3.3.10 LexiLaw3.3.11 Lawyer LLaMA3.3.12 ChatLaw3.3.13 ChatGLM-Math第4章 LangChain技术原理与实践4.1 LangChain技术原理4.2 LangChain六大核心模块4.2.1 模型I/O4.2.2 数据增强模块4.2.3 链模块4.2.4 记忆模块4.2.5 Agent模块4.2.6 回调处理器第5章 RAG检索增强生成5.1 RAG技术原理5.1.1 RAG的概念与应用5.1.2 RAG技术架构5.1.3 分块和向量化5.1.4 搜索索引5.1.5 重新排序和过滤5.1.6 查询转换与路由5.1.7 RAG中的Agent智能体5.1.8 响应合成器5.1.9 大模型微调和RAG优劣势对比5.2 文本向量模型5.2.1 Embedding模型、Reranker模型及ColBERT模型5.2.2 阿里巴巴GTE向量模型5.2.3 中文acge_text_embedding模型5.2.4 智源中英文语义向量模型BGE5.2.5 Moka开源文本嵌入模型M3E5.2.6 OpenAI的text-embedding模型5.3 向量数据库5.3.1 Faiss5.3.2 Milvus5.3.3 Pinecone5.3.4 Chroma5.4 RAG应用实践5.4.1 基于大模型构建企业私有数据的知识问答5.4.2 应对大模型落地挑战的优化策略第6章 多模态大模型6.1 多模态基础模型6.1.1 多模态对齐、融合和表示6.1.2 CLIP6.1.3 BLIP6.1.4 BLIP-26.1.5 InstructBLIP和X-InstructBLIP6.1.6 SAM6.1.7 OpenFlamingo6.1.8 VideoChat6.1.9 PaLM-E6.2 OpenAI多模态大模型DALL·E 3、GPT-4V、GPT-4o、Sora6.2.1 文生图多模态大模型DALL·E 36.2.2 GPT-4V6.2.3 端到端训练多模态大模型GPT-4o技术原理6.2.4 文生视频多模态大模型Sora6.3 通义千问多模态大模型6.3.1 开源Qwen-VL和Qwen-VL-Chat6.3.2 Qwen-VL-Plus和Qwen-VL-Max6.4 开源端到端训练多模态大模型LLaVA6.4.1 LLaVA6.4.2 LLaVA-1.56.4.3 LLaVA-1.66.4.4 MoE-LLaVA6.4.5 LLaVA-Plus6.4.6 Video-LLaVA和LLaVA-NeXT-Video6.5 零一万物多模态大模型Yi-VL系列6.5.1 Yi-VL系列模型架构6.5.2 Yi-VL系列模型训练微调及推理6.6 清华系多模态大模型6.6.1 VisualGLM-6B6.6.2 CogVLM26.6.3 CogAgent6.6.4 CogView、CogVideo和CogVideoX6.6.5 CogCoM6.6.6 GLM-4V-9B第7章 AI Agent智能体7.1 AI Agent智能体介绍和原理7.1.1 AI Agent的定义与角色7.1.2 AI Agent技术原理7.2 主流大模型Agent框架7.2.1 AutoGPT7.2.2 MetaGPT7.2.3 ChatDev7.2.4 AutoGen7.2.5 FastGPT7.2.6 XAgent7.2.7 GPT-Engineer7.2.8 BabyAGI7.2.9 SuperAGI第8章 大模型在企业应用中落地8.1 基于大模型的对话式推荐系统8.1.1 基于大模型的对话式推荐系统技术架构设计8.1.2 推荐AI Agent智能体8.1.3 面向推荐的语言表达模型8.1.4 知识插件8.1.5 基于大模型的推荐解释8.1.6 对话式推荐系统的新型评测方法8.2 多模态搜索8.2.1 多模态搜索技术架构设计8.2.2 多模态搜索关键技术8.2.3 多模态实时搜索与个性化推荐8.3 基于自然语言交互的NL2SQL数据即席查询8.3.1 NL2SQL数据即席查询技术原理8.3.2 NL2SQL应用实践8.4 基于大模型的智能客服对话机器人8.4.1 大模型智能客服对话机器人技术原理8.4.2 AI大模型赋能提升智能客服解决率新策略8.4.3 基于大模型的智能客服对话机器人系统搭建8.5 多模态数字人8.5.1 多模态数字人技术原理8.5.2 三维建模与三维重建8.5.3 数字人形象设计8.5.4 唇形同步算法8.5.5 NeRF、ER-NeRF与RAD-NeRF模型8.5.6 数字人项目实践8.6 多模态具身智能8.6.1 多模态具身智能概念及技术路线8.6.2 多模态感知与场景理解8.6.3 视觉导航8.6.4 世界模型8.6.5 具身智能模拟器8.6.6 多模态多感官交互具身智能大模型8.6.7 端到端强化学习人形机器人8.6.8 多模态通才具身智能体   
当前,尽管大模型技术展现出变革行业的巨大潜力,但其实际应用仍面临三化困境:一是技术悬浮化:多数企业停留在概念验证阶段,缺乏与垂直场景深度融合的解决方案;二是能力碎片化:通用模型在专业领域存在知识盲区,难以满足行业特定的精准性需求;三是价值模糊化:应用场景与商业回报的关联路径不清晰,导致投资决策困难。为此,聚焦大模型行业认知智能的落地范式,设计包含智能监控平台、RAG推荐系统、智能体智驾系统三大项目的实战课程。通过本课程构成行业智能基座教学矩阵,旨在演示如何将大模型技术深度融合到行业工作流中,提供可复用的场景化AI工程方法论,建立从技术能力到商业价值的可量化验证路径。课程涉及大模型领域最热门技术栈,课程采取项目贯穿式设计,通过三个大实战项目(多模态监控平台、RAG推荐系统、智能体智驾系统)串联起多模态大模型、大模型提示词、RAG、AI Agent智能体开发、MCP、语音识别、超拟人语音合成、FastAPI、Websocket编程、多线程编程等技术。课程中项目均为目前最为前沿的技术,项目为可商用落地项目,也可作为毕设,项目充分结合了软硬件,且具有很好的交互界面,能大大提升学员的兴趣。此外课程讲解采取理实结合,资源丰富,除3个大的项目外,另外还设计了近80个案例Demo,全程手写代码,保姆级教学,降低学习难度和门槛。本课程具有以下特点。特点一、三大前沿硬核项目,直击行业应用核心本课程绝非零散技术的简单堆砌,而是通过三个精心设计、可直接商用的旗舰项目,为您系统性地串联起大模型核心技术的完整价值链。课程累计时长超50小时,其中项目讲解超30小时。项目运行效果演示可看第1章的第1个视频。项目1:基于多模态的智能工业监控平台(1)项目部分截图(2)项目架构图项目2:基于RAG的电影推荐系统(1)项目部分截图(2)项目架构图项目3:基于AI Agent的智能驾驶系统(1)项目部分截图(2)项目架构图特点二、“一核三翼”课程架构,构建全景知识图谱与工程能力矩阵本课程的架构图如下,课程详情介绍请看第1章第2个视频采用“一核三翼”课程设计的顶层思想,一个核心目标不是让学员成为只会调用API的程序员,而是旨在培养具备系统思维和工程化能力的优秀“大模型AI开发工程师”。“三翼”是支撑起“核心目标”的三大实战项目载体,是学员将架构师思维付诸实践的练兵场。它们分别代表了三个最重要且最具商业潜力的AI应用方向。它们覆盖了当前大模型落地的三大主流技术范式,学完即可胜任绝大多数前沿的AI应用开发工作。特点三、保姆级手写代码,告别“调包”与“看不懂”真正的掌握源于亲手实践。课程拒绝“复制粘贴”和“黑箱操作”,讲师将全程从零开始,手写每一行代码,整个课程手写代码超1万行。从环境配置到项目开发再到项目部署,一步一屏,细致入微。无论您是初学者还是希望深化实践的开发者,这种教学方式都能极大降低学习难度,确保您能跟上节奏,真正将代码和能力收入囊中,获得实实在在的成就感。特点四、易于操作,零成本复现全栈项目本课程彻底摒弃了封闭、付费的API接口,全程基于国产顶尖大模型和全球领先的开源框架,大模型平台包含免费试用额度,确保您无需支付任何模型调用费用,跟着老师敲代码,即可在个人电脑上完整复现所有商业级项目,真正实现“零成本”学习与“无壁垒”创新。特点五、课程资源丰富,打造“开箱即用”的学习体验课程将提供丰富的课件、讲义、项目操作素材以及全套源代码。课件和讲义包含核心原理剖析、架构及流程图解,API接口细化到每一个关键参数的讲解。代码结构清晰、注释详细,您既可以跟随老师一步步亲手敲击以深入理解,也可以直接运行现成代码进行测试和二次开发,真正实现“从学习到部署”的无缝衔接。  
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

抱抱宝

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值