LangChain vs LangGraph:对话记忆实现有何不同?

大模型记忆本质上就是在外部把对话内存存储下来,但在langchain和langgraph中实现又有所区别。

在大模型开发框架——Langchain家族中,Langchain是开发大模型应用的基础框架,而Langgraph是构建智能体的基础框架;两者虽同源,但又有些不同,因此今天我们看一下两者关于记忆功能的实现的区别。

记忆模块可以说是大模型对话场景中非常重要的一个功能,没有记忆大模型就失去了上下文,也就失去了持续对话的能力。

今天我们就来学习一下langchain和langgraph关于记忆功能的不同实现方式。

在这里插入图片描述

大模型记忆功能的实现方式

从功能上来说记忆就类似于我们人类的记忆,使得大模型知道我们当前对话的场景是什么,前面说了什么话;但从功能实现的角度来看,大模型所谓的记忆,其实就是把之前对话的内容拼接到提示词中,类似于聊天记录,这样大模型就可以根据聊天记录知道我们当前在讨论什么问题,也就是上下文。

之所以需要记忆功能,原因就在于大模型没有记忆能力,对大模型来说每次对话都是一次全新的对话。

所以,从这里也可以看出,大模型的记忆功能实现特别简单,就是把每次对话的内容记录下来即可,不论是保存在文件中,数据库中,亦或者是任何地方;形式可以是基于QA形式进行存储,问题是Q,大模型的回答是A。

图片

但从软件开发的角度来看,记忆功能是一个通用的功能,如果每次都要开发人员自己处理记忆功能,不但增加了工作量,还不利于记忆的统一管理;因此,在langchain和langgraph中提供了记忆的功能模块,只需要进行简单的配置即可使用,不需要开发者对每次对话进行记忆处理。

在langchain中,记忆是通过专门的记忆组件实现的,也就是Memory,比如说基于窗口的记忆模块——ConversationBufferWindowMemory,此模块有一个参数k,用来保存指定对话长度的记忆,比如说k=10就是保存最近十轮对话的内容,其余的内容会被丢弃,原因就是大模型的窗口是有大小限制的,太长的上下文会导致窗口超长,而且也不利于大模型进行处理。

记忆分为短期记忆和长期记忆,短期记忆比较经典的场景就是基于内存的记忆,当系统重启或崩溃会导致记忆丢失;而长期记忆是把记忆保存在外部数据库中,当系统重启或崩溃时,不会导致记忆丢失。

而在langgraph中,记忆是通过检查点实现的——MemorySaver,事实上说langgraph记忆是通过检查点实现的不太准确;应该说记忆是检查点的一个子功能而已;因为在langgraph中,检查点的作用是保存当前智能体运行时的数据,当系统中断时下次可以从当前检查点再次加载数据继续执行。

图片

这也是Langgraph中状态图StateGraph的核心功能,而在Langgraph中把记忆保存在状态图中,这样记忆就不会丢失;其原理和Langchain的Memory一样,只不过langgraph的状态图功能更加强大。而且,langgraph中的记忆能力也是被封装好的, 只需要在编译图传一个MemorySaver参数即可。

代码如下所示:

memory=InMemorySaver()graph=graph_builder.compile(checkpointer=memory)

只需要在状态图中配置checkpointer=memroy之后,再在调用智能体时在参数中传入thread_id参数即可;代码如下所示:

config={"configurable":{"thread_id":"1"}}# The config is the **second positional argument** to stream() or invoke()!events=graph.stream({"messages":[{"role":"user","content":user_input}]},                    config,                    stream_mode="values",)for event in events:  event["messages"][-1].pretty_print()

这样,langgraph就会自动把对话内容保存到状态图中,也就间接实现了记忆功能。

普通人如何抓住AI大模型的风口?

领取方式在文末

为什么要学习大模型?

目前AI大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

目前,开源人工智能大模型已应用于医疗、政务、法律、汽车、娱乐、金融、互联网、教育、制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领域的大模型在本次调研中占比超过 30%。
在这里插入图片描述

随着AI大模型技术的迅速发展,相关岗位的需求也日益增加。大模型产业链催生了一批高薪新职业:
在这里插入图片描述

人工智能大潮已来,不加入就可能被淘汰。如果你是技术人,尤其是互联网从业者,现在就开始学习AI大模型技术,真的是给你的人生一个重要建议!

最后

只要你真心想学习AI大模型技术,这份精心整理的学习资料我愿意无偿分享给你,但是想学技术去乱搞的人别来找我!

在当前这个人工智能高速发展的时代,AI大模型正在深刻改变各行各业。我国对高水平AI人才的需求也日益增长,真正懂技术、能落地的人才依旧紧缺。我也希望通过这份资料,能够帮助更多有志于AI领域的朋友入门并深入学习。

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

大模型全套学习资料展示

自我们与MoPaaS魔泊云合作以来,我们不断打磨课程体系与技术内容,在细节上精益求精,同时在技术层面也新增了许多前沿且实用的内容,力求为大家带来更系统、更实战、更落地的大模型学习体验。

图片

希望这份系统、实用的大模型学习路径,能够帮助你从零入门,进阶到实战,真正掌握AI时代的核心技能!

01 教学内容

图片

  • 从零到精通完整闭环:【基础理论 →RAG开发 → Agent设计 → 模型微调与私有化部署调→热门技术】5大模块,内容比传统教材更贴近企业实战!

  • 大量真实项目案例: 带你亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

02适学人群

应届毕业生‌: 无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌: 非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能突破瓶颈: 传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

image.png

vx扫描下方二维码即可
在这里插入图片描述

本教程比较珍贵,仅限大家自行学习,不要传播!更严禁商用!

03 入门到进阶学习路线图

大模型学习路线图,整体分为5个大的阶段:
图片

04 视频和书籍PDF合集

图片

从0到掌握主流大模型技术视频教程(涵盖模型训练、微调、RAG、LangChain、Agent开发等实战方向)

图片

新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路(不吹牛,真有用)
图片

05 行业报告+白皮书合集

收集70+报告与白皮书,了解行业最新动态!
图片

06 90+份面试题/经验

AI大模型岗位面试经验总结(谁学技术不是为了赚$呢,找个好的岗位很重要)图片
在这里插入图片描述

07 deepseek部署包+技巧大全

在这里插入图片描述

由于篇幅有限

只展示部分资料

并且还在持续更新中…

真诚无偿分享!!!
vx扫描下方二维码即可
加上后会一个个给大家发

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值