别再傻傻分不清!RAG、Agentic RAG、Memory的本质区别是什么?万字长文+8大技能,一次讲透!

一个是RAG及大模型开发几个优化技术点再回顾,从两个图出发,来回顾下大模型发展这3 年来的一些应用技术能力优化点

另一个,看知识图谱进展,来看学术领域多模态知识图谱构建案例,重点看看图谱设计思路

多总结,多归纳,**多从底层实现分析逻辑,**会有收获。

一、RAG及大模型开发几个优化技术点再回顾

来看两个点,来自https://www.dailydoseofds.com/中的一些总结,两个图。

1、RAG, Agentic RAG, and AI Memory

RAG(2020–2023):一次性检索信息,生成回答没有决策能力,仅获取并作答。但问题是经常检索到不相关的上下文

AgenticRAG(智能体增强型RAG):智能体决定是否需要检索,智能体选择查询哪个信息源,智能体验证检索结果是否有用。但问题是仍然是只读的,无法从交互中学习

AI记忆(AgentMemory):能读取也能写入外部知识,从过往对话中学习,记住用户偏好和历史上下文,实现真正的个性化。

如果几个进行对比,则可以归结为:

RAG只读、单次操作;AgenticRAG通过工具调用实现只读;AgentMemory:通过工具调用实现读写,智能体现在能够“记住”各种信息,例如用户偏好、过往对话和重要日期,并将这些信息存储起来,供未来交互时检索使用

但这种记忆并不顺利,记忆机制也带来了RAG从未面临过的新挑战:记忆污染(memorycorruption)、如何决定遗忘什么内容,以及如何管理多种类型的记忆(程序性记忆、情景记忆和语义记忆)。

2、8 key LLM development skills for AI engineers

类看第二个图,关于大模型使用的8个技能。

具体看::

1)提示工程(PromptEngineering)

最基本的能力是设计结构化的提示词,以减少歧义,并引导模型生成更确定性的输出。

包括快速迭代多种提示变体,运用“思维链”(chain-of-thought)、少量示例(few-shotexamples)等模式来稳定模型响应

2)上下文工程(ContextEngineering)

动态地将相关外部数据(如数据库、记忆、工具输出、文档等)注入到提示中。

具体的,能力包括:

设计上下文窗口,在信息完整性与token使用效率之间取得平衡。处理检索噪声和上下文坍缩(contextcollapse)问题——这在长上下文场景中尤为关键。

3)微调(Fine-tuning)

在许多场景中,可能需要根据特定用例调整LLM的行为。

具体的,能力包括:

使用LoRA/QLoRA等方法,利用领域特定数据对基础模型进行适配,同时控制计算成本。管理数据整理流水线(如去重、指令格式化、质量过滤等)。在模型超越零样本/少样本能力时,监控过拟合与泛化之间的平衡。

4)RAG系统(Retrieval-AugmentedGeneration)

构建通过嵌入(embeddings)和向量数据库为LLM注入外部知识的系统,从而减少幻觉。

具体的,能力包括:

设计高召回率与高准确率的检索流水线(包括索引、文本分块、查询重写等)。使用结构化的提示模板,将检索到的上下文与用户查询有效融合。

5)智能体(Agents)

不再局限于静态问答,而是能编排多步骤推理流程,并结合工具使用实现更复杂的任务。

具体的,能力包括:

处理环境交互、状态管理以及在自主工作流中的错误恢复机制。设计备用策略,以应对推理路径失败或外部API返回不完整结果的情况。

6)LLM部署(LLMDeployment)

当完成LLM应用开发后,需要将其打包为可用于生产环境的API,并构建可扩展的部署流水线。

具体的,能力包括:

管理延迟、并发处理和故障隔离(例如自动扩缩容+容器编排)。围绕访问控制设置安全护栏,监控每次请求的成本,并防止滥用。

7)LLM优化(LLMOptimization)

为了降低成本,需要了解如何应用量化(quantization)、剪枝(pruning)和蒸馏(distillation)等技术,以减小模型内存占用和推理开销。

进而能够评估速度、精度与硬件利用率(如GPU/CPU卸载)之间的权衡。持续对模型进行性能剖析(profiling),确保优化不会损害核心功能。因此,模型压缩技术在此至关重要。

8)LLM可观测性(LLMObservability)

无论LLM应用多么简单或复杂,都必须掌握如何实施追踪(tracing)、日志记录和仪表盘,以监控提示、响应和失败案例

具体的,能力包括:

真实流量中跟踪token使用量、延迟突增和提示漂移(promptdrift)等问题。将可观测性数据反馈到迭代周期中,实现持续改进。

二、学术多模态知识图谱构建案例

看知识图谱进展,看一个故事。

背景是学术任务(如研究趋势预测、论文纠错)需多源数据支撑,但是现有数据集以单源为主(如仅ArXiv论文或仅OpenReview评审),多模态信息(图表)的关联未充分挖掘;不同任务需重复数据预处理与定义,开发效率低,LLM需文本输入,GNN需图结构输入,接口不统一,所以搞个统一数据接口

在目标设计上,基于图结构的学术数据统一接口,整合了来自ArXiv(含66918篇论文及多模态信息)和OpenReview(含57278份投稿及评审数据)的多源数据,支持多模态(文本、图表、表格)处理,通过多表格式构建异构图并保留动态时间演化信息。

具体工作在《ResearchArcade: Graph Interface for Academic Tasks》,https://arxiv.org/pdf/2511.22036,https://github.com/ulab-uiuc/research-arcade,看几个核心点。

1、看图谱的设计

主要是设计上能够带来一些建议,如:

多源【ArXiv+OpenReview】;

多模态【覆盖文本(论文正文、评审)、视觉(图表)、结构化数据(表格),并通过图结构建立模态间关联】;

高关联异构【以多表格式(节点表+边表)构建异构图。节点:论文、段落、图表、作者、评审等;边:论文-段落、段落-图表、论文-评审等关系;支持微观(单篇论文修订)、宏观(领域研究趋势)两层关联建模)】;

动态演化【记录时间戳(如论文上传/修订时间),支持微观追踪单篇论文的修订历程(如评审驱动的段落修改);宏观通过持续爬取(如每周更新ArXiv数据)分析研究趋势。】

2、看数据的处理

定好目标后,看数据怎么进行整合,如:

ArXiv:66918篇论文(11领域),含段落/图表/作者关联;

OpenReview:57278份投稿(ICLR等会议),含评审/修订数据;

另外就是进行数据增强,例如,做两步。

step1-【LLM辅助数据增强】, 使用Llama-3.1-70B-Instruct完成,进行修订分类【将OpenReview的修订按9类标准(如轻量重写、内容添加)标注】;内容总结【生成ArXiv论文的研究问题摘要与方法描述】

step2-【统一任务定义框架】采用两步法,兼容预测与生成任务。

step1识别目标实体(节点/边),提取其属性作为任务标签(如“录用预测”的目标实体为OpenReview论文节点,标签为“Accept/Reject”);

step2检索目标实体的多跳邻域,构建任务专属子图(如“段落生成”需检索相邻段落、关联图表)。

3、收益确认

主要还是要讲清楚搞成这种图结构化有啥用。

所以会涉及到实验的任务设计,例如包括:

引文预测-段落级citation推荐(多分类)、段落生成-补全论文缺失段落(生成)、修订检索-从评审定位需修改段落(Top-k排序)、修订生成-基于评审生成段落修订(生成)、录用预测-预测论文是否录用(二分类)、反驳生成-基于评审与论文生成作者反驳(生成)

结果上,图结构的持续增益:在修订检索、录用预测任务中,图模型(GNN/GWM)显著优于非图模型(EMB/MLP),且多跳邻域(3-hop)比1-hop更能捕捉高阶关联(如录用决策依赖的venue趋势)。

多模态上,消融实验显示,同时融入图和表格时,反驳生成、引文预测,有增强作用

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》下方扫码获取~
在这里插入图片描述

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
在这里插入图片描述

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
在这里插入图片描述

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
在这里插入图片描述

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
在这里插入图片描述

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

图片

以上资料如何领取?

在这里插入图片描述

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

图片

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
在这里插入图片描述
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

以上全套大模型资料如何领取?

在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值