让大模型“吃一堑长一智”,南理工百度等提出模型记忆新方法

ViLoMem团队 投稿
量子位 | 公众号 QbitAI

多模态推理又有新招,大模型“记不住教训”的毛病有治了。

南京理工大学联合百度等单位提出新方法ViLoMem,通过构建视觉流+逻辑流的双流语义记忆,让模型像人一样把视觉陷阱和推理错误分开存档,做到真正的“从错误中学习”。

在六个多模态基准中,ViLoMem让GPT-4.1 在MathVision上暴涨+6.48,小模型Qwen3-VL-8B在MMMU上提升 +4.38。

而且不需要任何微调,强模型积累下来的记忆还能直接迁移给小模型,起到类似”免费知识蒸馏”的效果。

整体来看,ViLoMem 做了三件关键的事:

  • 把视觉错误和逻辑错误显式拆开存储;

  • 为两种记忆分别设计生成、检索和更新机制;

  • 通过增长-精炼机制控制记忆规模。

在不改动大模型参数的前提下,ViLoMem能在多个多模态基准上稳定拉升表现,尤其是在需要精细视觉理解的数学与真实场景推理任务上,为构建真正“会从经验中长记性”的多模态智能体提供了一条很有潜力的道路。

大模型的“金鱼记忆”

过去,大模型能背下全互联网,却很难记住自己刚犯过的错——这听上去有点好笑,但却是当前多模态大模型(MLLM)的真实写照。

在多模态解题任务里,大模型经常出现这样的场景——上一题刚刚栽在“把等腰三角形看成等边”上,下一题遇到类似图形,依然毫不犹豫地再犯一次。

也就是说,每道题都在“从零开始”,之前踩过的坑几乎没形成结构化经验。

现有的记忆增强方法通常会在模型外接一个“记忆库”,但大多只存储推理轨迹(trajectory),因此带来了两个核心问题。

一是简短性偏差(Brevity Bias),也就是经历过多轮压缩、总结之后,很多关键细节被抹平,最后只剩下一些“空洞结论”。

二是单模态盲区,即便任务本身是多模态的,这些方法也主要记录文本推理过程,很少追踪“到底是哪里看错了”。

但人类并不是这样记忆的。

认知科学研究表明,人类的语义记忆天生就是多模态整合的,既会记住“这道题要用勾股定理”(逻辑规则),也会记 “这个角看着像直角其实不是”(视觉经验)。

ViLoMem正是沿着这个方向,把视觉和逻辑错误拆开来专门建库。

双流语义记忆ViLoMem

为了解决上述问题,作者提出了一个即插即用的双流记忆框架ViLoMem(Visual-Logical Memory)。

用一句话概括这个框架就是,把“看错了什么”和“想错了什么”分开记忆。

结构上,ViLoMem包含两个关键部分——记忆生成和记忆检索。

记忆生成:给每一次失败写下”错因小结”

当模型在某道题上翻车时,ViLoMem会并行启动两个分支。

一是视觉分析模块(MLLM),主要就是回答一个问题——这次是“眼睛”出了什么问题?

一旦确定是视觉层面的锅,系统会生成一条结构化的视觉指南(Visual Guideline),例如:

在判断物体材质时,应优先对比其与场景中已知金属物体的高光形态和纹理,而不是仅凭整体亮度做判断。

二是逻辑分析模块(LLM),这里关注的是推理链条哪一步出了问题?

对应的逻辑记忆可能长这样:

在涉及垂直平分线的几何问题中,只有位于平分线上的点才保证到线段两端点等距;除非有明确条件,否则不要默认某点在垂直平分线上。

为了增强记忆的通用性,新生成的记忆不会直接塞进库里,而是先和已有记忆做相似度匹配。

如果能够找到高度相似的条目,那就合并成更抽象、更通用的规则,找不到的话再新开一个记忆槽位。

这种Grow-and-Refine机制既避免记忆无限膨胀,又能让记忆从具体案例中不断抽象出更普适的语义模式。

记忆检索:视觉和逻辑两条路,各司其职

在处理新问题时,两类记忆的检索策略也不同。

视觉记忆采用了两阶段的检索模式,同时也引入了注意力图

第一阶段是图像级相似度搜索,利用多模态嵌入,先在整个视觉记忆库里筛一批“看上去像”的候选样本;

第二阶段则是问题语义过滤,也就是通过文本嵌入,对这些候选样本进行问题相关性过滤,保证“问的问题也类似”。

在检索到合适的视觉记忆后,ViLoMem还会生成问题感知的注意力热力图,在图上高亮历史上最容易被忽视或看错的区域,相当于给模型发了一份“视觉踩坑指南”。

逻辑记忆的检索方式则是先理解题目,再找对应规则,其过程更偏向“题型分析”——

  • 先让模型判断问题属于哪门学科、涉及哪些关键概念;

  • 再基于分析结果构造查询向量,在逻辑记忆库中做语义匹配;

  • 只保留相似度超过阈值的高相关记忆作为候选。

这种“先理解题目,再去库里翻笔记”的方式,比简单关键词匹配要干净得多。

六大基准全线提升

作者在六个多模态推理基准上系统评估了ViLoMem,结果不管大模型、小模型都能够吃到红利。

从任务维度看,数学类任务收益最大,例如GPT-4.1在 MathVision上+6.48,在MathVista上+2.61;

而从模型规模上看,小模型提升幅度更大,例如Qwen3-VL-8B在MMMU上+4.38,在RealWorldQA上+2.74。

这一结果符合直觉,因为数学和视觉密集任务对“看准了再算”要求最高,双流记忆能有效阻断视觉错误向推理链条的级联传播。

作者还做了一个有意思的“跨模型记忆迁移”实验——让大模型“带小弟刷分”,也就是小模型直接使用大模型生成的记忆,看分数会发生什么变化。

结果显示,小模型拿着大模型的记忆成绩更好。

这意味着ViLoMem提供了一种“免微调的知识蒸馏”路径——强模型踩过的坑,可以直接变成弱模型的经验。

项目主页:https://vi-ocean.github.io/projects/vilomem/

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值