1. 纠正性检索增强生成简介
纠正性检索增强生成(Corrective Retrieval-Augmented Generation,CRAG)是一种先进的自然语言处理技术,旨在提高检索的生成方法的鲁棒性和准确性。在 CRAG 中引入了一个轻量级的检索评估器来评估检索到的文档的质量,并根据评估结果触发不同的知识检索动作,以确保生成结果的准确性。
CRAG 的工作流程包含了以下几个步骤:
- 检索文档:首先,基于用户的查询,系统执行检索操作以获取相关的文档或信息。
- 评估检索质量:CRAG 使用一个轻量级的检索评估器对检索到的每个文档进行质量评估,计算出一个量化的置信度分数。
- 触发知识检索动作:根据置信度分数,CRAG 将触发以下二个动作之一:
• 正确:如果评估器认为文档与查询高度相关,将采用该文档进行知识精炼。
• 错误:如果文档被评估为不相关或误导性,CRAG将利用网络搜索寻找更多知识来源。 - 知识精炼:对于评估为正确的文档,CRAG将进行知识精炼,抽取关键信息并过滤掉无关信息。
- 网络搜索:在需要时,CRAG会执行网络搜索以寻找更多高质量的知识来源,以纠正或补充检索结果。
- 分解-重组:CRAG采用一种分解-重组算法,将检索到的文档解构为关键信息块,筛选重要信息,并重新组织成结构化知识。
- 生成文本:最后,利用经过优化和校正的知识,传递给 LLM,生成对应文本。
运行流程如下:

在这里插入图片描述
2. 组件构成与 LCEL 表达式缺陷
在上述的 CRAG 运行流程中,需要的组件涵盖了:检索器、评估组件、判断组件(路由组件)、重检索、网络搜索工具 等,并且该链的运行并不是线性运行的,而是存在 条件判断 与 循环(可选) 迭代多步的可能,对于 LCEL 表达式构建的单链应用来说,要实现这个功能难度非常大,亦或者说代码会非常臃肿。
这就是 LCEL 表达式构建链应用的缺陷,其实在 问题分解策略 时,就已经可以感受到,例如 问题分解策略-迭代式回答运行流程 中,每一次子问题生成的回复要传递给下一次子问题作为上下文,如下:

该功能本身是 链应用 的一部分,但是在代码中,我们只能通过循环来完成该过程,核心代码如下:
而且涉及到工具类的调用,也没法在 LCEL 表达式构建的链应用中判断是否需要执行工具,并自动将工具的处理结果返回给 LLM(无法回退,只能从前往后流动),对于这类涵盖了单代理、多代理、多LLM集成、多智能体、分层、顺序、循环等复杂场景的应用,一般的 LCEL 表达式就无法实现了,这个时候可以考虑使用LangGraph来构建 循环图结构 类型的应用。
LangGraph 官网:https://www.langchain.com/langgraph。
LangGraph 是 LCEL 表达式的扩充/超集,旨在克服传统 LangChain 链条运行时无法循环的限制`,LangGraph 以 循环图(一个数学概念) 作为 Agent 应用的框架基础,对比单条链顺序执行,在 图结构 中可以轻松引入循环。
例如下方就是一张 LangGraph 循环图示例(有向无环/有环图):

最后,CRAG 这个优化策略会涉及到 循环调用 与 工具回调 .

如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


被折叠的 条评论
为什么被折叠?



