Nature | 记忆管理天花板来了!MOOM 双分支框架 + 竞争抑制遗忘,各项指标碾压现有方法!

▌关键词:超长对话记忆管理、角色扮演对话系统、双分支记忆提取、叙事摘要分支(NSB)、角色构建分支(PCB)、竞争-抑制遗忘机制、记忆容量控制、ZH-4O数据集、MemScore评估

 
原文、ICML|CVPR|AAAI|ICLR 2025 大模型顶会论文合集

 

一、导读

该研究针对超长角色扮演对话中记忆提取与管理的关键问题展开。随着大语言模型(LLMs)在情感陪伴和角色扮演中的应用日益广泛,对话长度增加导致模型容易忽略历史信息或产生幻觉,严重影响用户体验。现有记忆提取方法普遍存在记忆容量不可控、语义冗余和缺乏结构化建模等问题。

本文首次提出一种基于文学理论的双分支记忆插件MOOM,分别建模“情节发展”与“角色刻画”两大叙事要素,并引入基于“竞争-抑制”理论的遗忘机制,有效控制记忆增长。此外,作者构建了中文超长对话数据集ZH-4O,平均对话轮次达600轮,并包含人工标注的记忆信息。实验表明,MOOM在记忆提取准确率、响应一致性和计算效率方面均优于现有方法,具有重要的理论创新与实践价值。

二、论文基本信息

  • 论文标题:MOOM: Maintenance, Organization and Op

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值