大模型的“长短记忆”机制

ModelEngine·创作计划征文活动 10w+人浏览 1.4k人参与

一、核心概念:什么是大模型的“短记忆”与“长记忆”

我们可以这样类比:

  • 短记忆:

    • 定义: 模型在处理当前一次对话或查询时,所能直接“看到”的上下文信息。
    • 技术本质: 模型在生成下一个词时,其注意力机制能够关注到的前方所有Token的集合。
    • 特点: 记忆完全在模型的内部激活中,是瞬时的、与当前任务强相关的。一旦生成结束,这些“记忆”就消失了。
      在这里插入图片描述
  • 长记忆:

    • 定义: 模型能够跨会话、跨任务持久化保存和调用的知识或信息。
    • 技术本质: 模型本身无法直接实现长记忆。长记忆需要通过外部技术将信息在推理时“注入”到模型的上下文窗口中,从而转化为短记忆来使用。
    • 特点: 信息被存储在模型之外(如向量数据库、文件等),需要时被检索并唤醒。
      在这里插入图片描述

二、技术原理详解

1. 短记忆的技术原理

短记忆的能力直接由

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值