▌关键词:超长对话记忆管理、角色扮演对话系统、双分支记忆提取、叙事摘要分支(NSB)、角色构建分支(PCB)、竞争-抑制遗忘机制、记忆容量控制、ZH-4O数据集、MemScore评估
原文、ICML|CVPR|AAAI|ICLR 2025 大模型顶会论文合集
一、导读
该研究针对超长角色扮演对话中记忆提取与管理的关键问题展开。随着大语言模型(LLMs)在情感陪伴和角色扮演中的应用日益广泛,对话长度增加导致模型容易忽略历史信息或产生幻觉,严重影响用户体验。现有记忆提取方法普遍存在记忆容量不可控、语义冗余和缺乏结构化建模等问题。
本文首次提出一种基于文学理论的双分支记忆插件MOOM,分别建模“情节发展”与“角色刻画”两大叙事要素,并引入基于“竞争-抑制”理论的遗忘机制,有效控制记忆增长。此外,作者构建了中文超长对话数据集ZH-4O,平均对话轮次达600轮,并包含人工标注的记忆信息。实验表明,MOOM在记忆提取准确率、响应一致性和计算效率方面均优于现有方法,具有重要的理论创新与实践价值。
二、论文基本信息

-
论文标题:MOOM: Maintenance, Organization and Op

最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



