前言
在 AI Agent 中,长期记忆的核心价值是存储可复用的历史经验(如成功案例、用户反馈、规则迭代记录等),并支持通过语义相似性检索快速匹配当前任务场景,辅助决策。向量数据库(如 Milvus、FAISS、Qdrant 等)因其能高效存储和检索高维向量的特性,成为长期记忆的理想载体 —— 通过将 “经验内容” 转化为 “语义向量”,实现 “场景相似性” 驱动的经验复用。
一、长期记忆的核心设计要素
长期记忆的向量数据库设计需围绕 “经验如何表示、如何存储、如何检索” 三个核心问题,具体要素如下:
| 设计维度 | 核心需求 | 实现思路 |
|---|---|---|
| 经验内容定义 | 明确存储哪些 “经验”(需具备复用价值) | 存储结构化经验条目:如 “用户反馈修正记录”“任务成功案例”“规则优化历史” 等。 |
| 向量表示方式 | 将非结构化经验(文本描述)转化为机器可理解的高维向量 | 用嵌入模型(如 Sentence-BERT、OpenAI Embeddings)将经验文本编码为向量。 |
| 元数据设计 | 补充向量之外的结构化信息,辅助精准检索(如经验适用场景、时间、优先级) | 存储元数据字段:scene(场景标签)、timestamp(时间戳)、priority(优先级)等。 |
| 检索策略 | 快速找到与当前任务最相似的历史经验 | 结合 “向量语义相似度”(如余弦相似度)和 “元数据过滤”(如按场景筛选)实现混合检索。 |
| 记忆演化机制 | 长期记忆需动态更新(新增有效经验、淘汰过时经验) | 实现经验 “老化机制”(如按时间衰减权重)和 “强化机制”(如用户确认的有效经验提升权重)。 |
二、具体设计方案(以 Milvus 为例)
1. 经验数据结构定义
每条长期记忆(经验)需包含 “向量 + 文本内容 + 元数据” 三部分,示例结构如下:
| 字段名 | 类型 | 说明 |
|---|---|---|
id | 字符串 | 唯一标识(如exp_12345) |
vector | 高维向量 | 经验文本的嵌入向量(如 768 维,由 Sentence-BERT 生成) |
content | 字符串 | 经验的自然语言描述(如 “处理年龄字段缺失时,用户反馈用中位数填充更合理”) |
scene | 字符串数组 | 适用场景标签(如["data_cleaning", "missing_value_processing"]) |
timestamp | 整数 | 经验创建的 Unix 时间戳 |
priority | 整数 | 优先级(1-5,5 为最高,由用户反馈或复用次数决定) |
source | 字符串 | 经验来源(如"user_feedback"“task_success”) |
2. 向量数据库集合(Collection)设计
以 Milvus 为例,创建用于存储长期记忆的集合,需定义字段类型和索引(加速检索):
from pymilvus import connections, FieldSchema, CollectionSchema, DataType, Collection, utility# 1. 连接Milvus服务connections.connect("default", host="localhost", port="19530")# 2. 定义字段fields = [ # 唯一ID FieldSchema(name="id", dtype=DataType.VARCHAR, max_length=50, is_primary=True), # 经验向量(768维,与嵌入模型输出维度一致) FieldSchema(name="vector", dtype=DataType.FLOAT_VECTOR, dim=768), # 经验文本内容 FieldSchema(name="content", dtype=DataType.VARCHAR, max_length=2000), # 适用场景(数组类型) FieldSchema(name="scene", dtype=DataType.ARRAY, element_type=DataType.VARCHAR, max_length=100), # 时间戳 FieldSchema(name="timestamp", dtype=DataType.INT64), # 优先级 FieldSchema(name="priority", dtype=DataType.INT32), # 来源 FieldSchema(name="source", dtype=DataType.VARCHAR, max_length=100)]# 3. 创建集合 schemaschema = CollectionSchema(fields, description="AI Agent长期记忆:历史经验存储")# 4. 创建集合(如已存在则删除重建)collection_name = "agent_long_term_memory"if utility.has_collection(collection_name): utility.drop_collection(collection_name)collection = Collection(name=collection_name, schema=schema)# 5. 创建向量索引(加速相似度检索)index_params = { "index_type": "IVF_FLAT", # 适合中小规模数据的精确检索 "metric_type": "COSINE", # 用余弦相似度衡量向量距离 "params": {"nlist": 1024} # 聚类数量,影响检索速度和精度}collection.create_index(field_name="vector", index_params=index_params)collection.load() # 加载集合到内存,准备检索
3. 经验存储:将历史经验写入向量数据库
需先通过嵌入模型将经验文本转化为向量,再插入数据库:
from sentence_transformers import SentenceTransformer # 嵌入模型# 初始化嵌入模型(将文本转为768维向量)embedder = SentenceTransformer('all-MiniLM-L6-v2')def add_experience(collection, experience): """ 向长期记忆添加一条经验 :param collection: Milvus集合对象 :param experience: 经验字典(含content、scene等字段) """ # 1. 生成唯一ID experience_id = f"exp_{experience['timestamp']}"
# 2. 将经验文本转为向量 vector = embedder.encode(experience["content"]).tolist()
# 3. 组装插入数据 data = [ [experience_id], # id [vector], # vector [experience["content"]], # content [experience["scene"]], # scene [experience["timestamp"]], # timestamp [experience["priority"]], # priority [experience["source"]] # source ]
# 4. 插入向量数据库 collection.insert(data) print(f"已添加经验:{experience_id}")# 示例:添加一条用户反馈的经验new_experience = { "content": "在处理用户年龄数据时,若缺失值比例超过10%,直接删除字段会导致样本量减少过多,用户建议改用中位数填充并标记缺失记录", "scene": ["data_cleaning", "missing_value_processing", "age_field"], "timestamp": 1690000000, "priority": 4, # 较高优先级(用户明确反馈) "source": "user_feedback"}add_experience(collection, new_experience)
4. 经验检索:根据当前任务查询相似经验
结合 “当前任务描述” 生成向量,检索最相似的历史经验,并可通过元数据(如场景)过滤:
def retrieve_similar_experiences(collection, query_text, scene_filters=None, top_k=3): """ 检索与当前任务相似的历史经验 :param query_text: 当前任务描述(如“如何处理年龄字段的高比例缺失值”) :param scene_filters: 场景过滤条件(如["missing_value_processing"]) :param top_k: 返回最相似的前k条 :return: 相似经验列表 """ # 1. 将查询文本转为向量 query_vector = embedder.encode(query_text).tolist()
# 2. 构建检索参数(结合向量相似度和元数据过滤) search_params = { "metric_type": "COSINE", "params": {"nprobe": 10} # 检索时探查的聚类数量,平衡速度和精度 }
# 3. 元数据过滤条件(如仅检索“缺失值处理”场景的经验) expr = None if scene_filters: # Milvus中数组包含条件的表达式(如scene包含"missing_value_processing") expr = " && ".join([f'"{s}" in scene' for s in scene_filters])
# 4. 执行检索 results = collection.search( data=[query_vector], anns_field="vector", param=search_params, limit=top_k, expr=expr, # 元数据过滤 output_fields=["content", "scene", "priority", "source"] # 需要返回的字段 )
# 5. 整理结果(提取相似度分数和经验内容) similar_experiences = [] for hit in results[0]: similar_experiences.append({ "id": hit.id, "similarity": hit.score, # 余弦相似度(0-1,越大越相似) "content": hit.entity.get("content"), "scene": hit.entity.get("scene"), "priority": hit.entity.get("priority") }) return similar_experiences# 示例:查询与“处理年龄字段高比例缺失值”相关的经验query = "如何处理年龄字段中超过10%的缺失值?"similar_exps = retrieve_similar_experiences( collection, query_text=query, scene_filters=["missing_value_processing", "age_field"], top_k=2)print("相似经验检索结果:")for exp in similar_exps: print(f"相似度:{exp['similarity']:.2f},内容:{exp['content']}")
5. 记忆演化:更新与维护长期记忆
长期记忆需定期优化(如淘汰过时经验、强化高频复用经验):
def update_experience_priority(collection, exp_id, new_priority): """更新经验优先级(如被多次复用的经验提升优先级)""" collection.update( expr=f"id == '{exp_id}'", partition_name=None, params={"priority": new_priority} )def prune_old_experiences(collection, days_threshold=365): """删除超过阈值天数的低优先级经验(如1年未复用的优先级1经验)""" # 计算阈值时间戳(当前时间 - 天数*86400秒) current_ts = 1690000000 # 实际使用时用time.time() threshold_ts = current_ts - days_threshold * 86400 # 删除条件:时间戳早于阈值且优先级<=2 expr = f"timestamp < {threshold_ts} && priority <= 2" collection.delete(expr=expr) print(f"已删除过时低优先级经验")
三、设计要点与技术选型建议
- 嵌入模型选择:
- 轻量级场景:用
all-MiniLM-L6-v2(768 维,速度快,适合中小数据量); - 高精度场景:用
text-embedding-ada-002(OpenAI,1536 维,语义理解能力强)。
- 向量数据库选型:
- 开源部署:Milvus(支持分布式,适合大规模数据)、Qdrant(轻量,易部署);
- 云服务:Pinecone、Weaviate(无需自建,按使用量计费)。
- 检索策略优化:
- 基础:“向量相似度 + 场景标签过滤”(平衡召回率和精准度);
- 进阶:结合经验优先级(如优先返回优先级 > 3 的结果)、时间衰减(近期经验权重更高)。
- 性能考量:
- 向量维度不宜过高(建议 512-1536 维),避免检索耗时;
- 对高频访问的经验建立缓存(如 Redis),减少数据库压力。
总结
长期记忆的向量数据库设计核心是 “将经验语义转化为可计算的向量,并通过相似性检索实现跨场景复用”。通过结构化的经验定义、合理的元数据设计和灵活的检索策略,AI Agent 能从历史经验中快速学习,逐步提升决策能力 —— 这正是 Agent “智能化” 和 “持续进化” 的关键支撑。
最后
为什么要学AI大模型
当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!
DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。

与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。

最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】
AI大模型系统学习路线
在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。

但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。
AI大模型入门到实战的视频教程+项目包
看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

海量AI大模型必读的经典书籍(PDF)
阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。

600+AI大模型报告(实时更新)
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

AI大模型面试真题+答案解析
我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下


这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】
2518

被折叠的 条评论
为什么被折叠?



