本文介绍了 MemOS,一款由MemTensor联合交、人大、电信研究院等机构研发的创新性 Memory 框架,目标是解决大型语言模型(LLM)的 Memory 管理痛点。其通过三层架构实现 Memory 的统一调度、精细化治理与跨平台共享,推动智能系统从信息处理者向认知主体迈进,为构建高效协同的 AI 生态铺平了道路。

大家好,我是肆〇柒。在浏览论文时,我发现了一款用于构建 AI 应用的infra框架,它可以应用在 Agent 的 Memory 的管理构建上。今天,我就为大家介绍一下这款框架 ——MemOS。这一创新性的 Memory 操作系统,由 MemTensor(上海)科技有限公司联合上海交通大学、中国人民大学以及中国电信研究院等多家顶尖机构共同研发,目的是为了解决当前大型语言模型(LLM)在 Memory 管理方面的关键痛点。它首次将 Memory 提升为一类操作资源,为 LLM 的持续进化、个性化智能以及跨平台协作铺就了道路,推动智能系统从单纯的信息处理者向具有记忆、适应和进化能力的认知主体迈进。
当下,LLM 已然成为迈向通用人工智能(AGI)的基石。它们凭借惊人的语言感知与生成能力,重塑了我们与信息交互的方式。然而,它们在 Memory 处理机制上存在显著短板。目前,模型主要依赖两种 Memory 形式:参数 Memory (知识编码在模型权重中)和短暂的激活 Memory (受限于上下文的运行时状态)。这种局限性使得 LLM 难以有效处理长期对话状态、适应知识变迁、建模用户偏好,还导致了跨平台的 “Memory 孤岛” 困境。MemOS 的诞生,为构建更加智能、高效和协作的 AI 生态铺平了道路。
LLM Memory 发展:从懵懂到觉醒
下图展示了 LLM Memory 研究的三个阶段,能帮助大家直观的理解各阶段在 Memory 探索上的侧重点差异。

LLM 中的记忆体
Memory 定义与探索阶段:记忆的雏形
大型语言模型的 Memory 研究起步于对 Memory 本质的探索。隐式 Memory ,如参数 Memory ,通过预训练和适配器(比如lora adapter)方法将知识直接融入模型权重,成为模型理解世界的基石;而显式短期激活 Memory ,借助 KV 缓存与隐藏状态,维系着推理过程中的上下文连贯性。激活 Memory 虽能支持短期记忆,却受限于模型的上下文窗口;显式长期 Memory 则依赖外部检索机制,尝试以结构化形式(如知识图谱)增强语义关联,但这些方法多是零散的 “补丁”,缺乏系统性与统一性。例如,早期的 KV 缓存机制虽能有效保存短期对话状态,却难以应对复杂多轮对话中的知识更新需求。
类人记忆的出现阶段:模仿人类的认知模式
随着技术演进,研究者开始从人类大脑架构中汲取灵感。HippoRAG 等系统模仿人类记忆的长期持久性与上下文意识,试图赋予模型类似人类的记忆特性。这些系统在多轮对话中展现出惊人的连贯性,能够根据上下文动态调整记忆内容。例如,HippoRAG 利用神经生物学原理,构建了具有长期记忆存储和短期记忆激活的双层架构,使模型在处理复杂任务时能够像人类一样调用长期记忆中的知识,并结合当前上下文进行推理。
系统 Memory 管理阶段:迈向整合与规范
在这一阶段,工具如 EasyEdit 和系统如 Letta 等开始出现,它们支持显式的 Memory 操作与模块化调用。然而,这些系统在统一调度和跨角色 Memory 融合方面仍显不足。它们更多是对 Memory 操作的初步尝试,未能形成完整的 Memory 管理生态。例如,Letta 实现了基于页面上下文的管理和模块化调用,但在处理多智能体协作和跨平台 Memory 共享时,缺乏有效的协调机制。
MemOS 设计理念:重塑 Memory 管理的范式
下图清晰呈现模型能力进化与 Memory 系统引入及范式转变的关联。

模型能力发展的下一个飞跃将依赖于记忆系统的引入,这标志着一个向“记忆训练”范式转变的开始
Memory 作为核心资源的转变:从 “理解” 到 “进化”
随着 AGI 系统复杂性的提升,语言模型的角色也在发生转变。MemOS 的设计理念深刻认识到这一变化:语言模型不再仅仅是信息的处理者,更应成为知识的积累者、记忆的管理者和持续进化的生命体。传统扩展法则(scaling law)逐渐走向瓶颈,研究范式从数据和参数中心的预训练向对齐和微调的后训练范式转变。MemOS 的引入,标志着 “Memory 训练” 时代的到来,它将学习与推理融为一体,使模型在持续交互中不断优化自身 Memory 结构。这种范式转变提升了模型的性能,更为其赋予了适应动态环境的能力,使其能够像人类一样在实践中成长。
回顾 LLM Memory 发展历程,我们清晰看到,现有方法虽在一定程度上拓展了 LLM 的 Memory 能力,但始终未能突破记忆孤岛、缺乏统一调度与系统性管理的困境。而 MemOS 正是为攻克这些难题而出现的。
MemOS 的核心目标与愿景:构建可持续智能生态
MemOS 的核心目标是为 LLM 提供一个 Memory 中心的训练与执行框架。它通过结构化 Memory 存储、接口级调用、生命周期管理以及统一调度和版本控制机制,构建可持续智能进化的基础架构。例如,MemOS 能够实时追踪 Memory 单元的使用频率和上下文相关性,根据这些指标动态调整 Memory 的优先级和访问权限,从而确保关键知识在多任务场景下的高效利用。同时,MemOS 强调 Memory 调度、演化和治理的重要性,打破智能体、用户、应用和会话之间的 Memory 孤岛,支持长期能力增长和安全合规模型操作,为构建一个开放、协作且不断进化的智能生态奠定基石。
MemOS 的 Memory 类型与 MemCube:统一 Memory 的基石
Memory 类型:多样化的 Memory 形态
- 参数 Memory :作为模型前馈和注意力层中的长期知识,它通过预训练或微调直接编码在模型权重中,是零样本生成和能力驱动智能体的基础。例如,在医疗领域,通过可插拔的 LoRA 基模块,可以将复杂的医学知识高效注入模型。这些模块能够精准捕捉疾病的症状与机制之间的关联,使模型在处理医疗文本时展现出专业医生般的洞察力,快速生成诊断建议或治疗方案。
- 激活 Memory :它是推理过程中产生的瞬态认知状态,包括隐藏层激活、注意力权重和 KV 缓存结构,对上下文意识、指令对齐和行为调节至关重要。在多轮对话中,激活 Memory 帮助模型保持上下文连贯性。例如,当用户在对话中提及之前讨论过的某个产品时,激活 Memory 在 Memory 中快速定位相关产品信息,并将其融入当前回应,使对话自然流畅。
- 纯文本 Memory :作为从外部源检索的显式知识,它具有可编辑性、可共享性和治理兼容性。在文档编辑场景中,纯文本 Memory 能够快速检索与用户主题相关的文档段落,为用户提供更个性化且全面的写作素材,同时支持多人协作编辑与实时同步,极大

最低0.47元/天 解锁文章

496

被折叠的 条评论
为什么被折叠?



