LangGraph为智能对话系统设计了一种独特的“记忆”机制,它包括长期记忆和短期记忆两种类型。
基本信息
- 模型调用通义千问(阿里Tongyi大模型)
- 短期记忆:通过维护会话中的消息的历史记录,来跟踪正在进行的对话。短期记忆也称为线程级记忆。
- 长期记忆:跨会话存储用户特定或应用程序级数据。长期记忆又称为跨线程记忆。
长期记忆就像是一个“记忆仓库”,可以存储用户的各种信息,比如名字、语言偏好、历史对话记录等。这些信息被组织成一个个“记忆单元”,每个单元都有自己的“文件夹”(命名空间)和“文件名”(键)。比如,一个聊天机器人可以为每个用户创建一个独立的命名空间,里面存储着用户的各种偏好信息。
使用 LangGraph 管理长期记忆
通过三个简单的demo例子来看看LangGraph是如何在实际中工作的。
要使用长期记忆,需要:
- 配置存储以在调用之间保留数据
- 使用该get_store功能从工具或提示中访问LangSmith商店
1 保存用户信息
首先,初始化一个内存存储,然后定义一个保存用户信息的函数。这个函数会把用户的信息存储到长期记忆中。
把用户的名字“小何慢行”保存到了长期记忆中。
# -*- coding: utf-8 -*-
from langgraph.prebuilt import create_react_agent
from langchain_community.chat_models.tongyi import ChatTongyi
from langchain_core.messages import AnyMessage
from langchain_core.runnables import RunnableConfig
from typing_extensions import TypedDict
from langgraph.store.memory import InMemoryStore
from langgraph.config import get_store
#模型初始化
llm = ChatTongyi(
model="qwen-turbo",#qwen-max-latest qwen-plus
temperature=0,
verbose=True,
)
# 写入get_store()
store = InMemoryStore()
class UserInfo(TypedDict):
name: str
# 类似于文件夹
user_namespace = "users"
def save_user_info(user_info: UserInfo, config: RunnableConfig) -> str:
"""保存用户信息"""
# 与create_react_agent提供的一样
store = get_store()
user_id = config["configurable"].get("user_id")
store.put((user_namespace,), user_id, user_info)
return "已成功保存!"
#构建一个智能体
agent = create_react_agent(
model=llm,
tools=[save_user_info],
store=store
)
# #智能体的调用
response = agent.invoke(
{"messages": [{"role": "user", "content": "我的名字是小何慢行"}]},
config={"configurable": {"user_id": "xhmx_id"}}
)
print(response)
print(response["messages"][-1].content)
#直接访问仓库来获取值。
print(store.get((user_namespace,), "xhmx_id"))
print(store.get((user_namespace,), "xhmx_id").value)
运行结果截图
2 读取用户信息
需要读取用户信息时,可以定义一个读取函数,从长期记忆中获取用户的信息。
假设第一个用例中保存了用户信息,现在我们来读取它。
# -*- coding: utf-8 -*-
from langgraph.prebuilt import create_react_agent
from langchain_community.chat_models.tongyi import ChatTongyi
from langchain_core.messages import AnyMessage
from langchain_core.runnables import RunnableConfig
from typing_extensions import TypedDict
from langgraph.store.memory import InMemoryStore
from langgraph.config import get_store
#模型初始化
llm = ChatTongyi(
model="qwen-turbo",#qwen-max-latest qwen-plus
temperature=0,
verbose=True,
)
# 读取get_store()
store = InMemoryStore()
#类似于文件夹
user_namespace = "users"
#类似于文件名
user_key = "xhmx_id"
store.put(
(user_namespace,), #可以多个
user_key,
{
"name": "小何慢行",
"sex": "男",
"language": "汉语",
}
)
def get_user_info(config: RunnableConfig) -> str:
"""查询用户信息"""
store = get_store()
user_id = config["configurable"].get("user_id")
user_info = store.get((user_namespace,), user_id)
return str(user_info.value) if user_info else "未记录该用户"
#构建一个智能体
agent = create_react_agent(
model=llm,
tools=[get_user_info],
store=store
)
#直接访问仓库来获取值。
response = agent.invoke(
{"messages": [{"role": "user", "content": "我要看下自身信息"}]},
config={"configurable": {"user_id": user_key}}
)
print(response)
print(response["messages"][-1].content)
运行结果截图
3 语义搜索:找到相关记忆
LangGraph 还允许通过语义相似性搜索长期记忆中的项目。
有时候,我们可能需要根据内容的相似性来搜索记忆,而不仅仅是通过关键词。可以通过描述来找到相关的信息。
# -*- coding: utf-8 -*-
from langgraph.prebuilt import create_react_agent
from langchain_community.chat_models.tongyi import ChatTongyi
from langchain_core.messages import AnyMessage
from langchain_core.runnables import RunnableConfig
from typing_extensions import TypedDict
from langgraph.store.memory import InMemoryStore
from langgraph.config import get_store
#模型初始化
llm = ChatTongyi(
model="qwen-turbo",#qwen-max-latest qwen-plus
temperature=0,
verbose=True,
)
#返回嵌入向量占位符列表
def embed(texts: list[str]) -> list[list[float]]:
# 可以替换为实际的嵌入函数。 embed": init_embeddings("openai:text-embedding-3-small")
return [[1.0, 2.0] * len(texts)]
# from langchain_community.embeddings import DashScopeEmbeddings
# from langchain.embeddings import init_embeddings
# embeddings = DashScopeEmbeddings(dashscope_api_key="sk-b8b221d506c041e08db52e622d48b2")
# 数据保存到内存中的字典。可以使用基于数据库的存储 如postgresql
store = InMemoryStore(index={"embed": embed, "dims": 2})
user_id = "users"
application_context = "chitchat"
namespace = (user_id, application_context)
user_key = "xhmx_id_memory"
store.put(
namespace,
user_key,
{
"rules": [
"用户只会说汉语和Python。",
"用户喜欢简洁直白的语言。",
],
"my-key": "my-value",
},
)
# 通过ID获取memory信息
item = store.get(namespace, user_key)
print(item)
print("------------------------")
# 按内容等价性进行筛选,按向量相似性会排序
items = store.search(
namespace, filter={"my-key": "my-value"}, query="语言偏好"
)
print(items)
运行结果截图
通过语义搜索找到了与“语言偏好”相关的记忆,即使我们没有直接使用这个关键词来保存记忆。
预建记忆工具
LangMem是由 LangChain 维护的一个库,它提供了用于管理代理中长期记忆的工具。可以参阅LangMem 文档以获取使用示例。
LangGraph的长期记忆,为智能对话系统提供了一个强大的“记忆”功能。它不仅能够让系统记住用户的信息和偏好,还能通过语义搜索快速找到相关信息。
这种记忆机制的设计,让智能对话系统更加人性化,能够更好地满足用户的需求。无论是智能客服还是个人助手,LangGraph都能让它们变得更加智能和贴心。
下一节:
1.langgraph的新特性:支持人工参与的循环审查