言简意赅学习Learning to (Learn at Test Time): RNNs with Expressive Hidden States

Main Content

所有的序列建模层都可以表示为一个根据更新规则进行转换的隐藏状态。

main idea:隐藏状态设为一个具有权重W的模型f,并将更新规则设为自监督损失ℓ的梯度步。

测试时训练(Test-Time Training, TTT):在测试序列上更新隐藏状态等同于在测试时训练模型f。

隐藏状态是一个自监督学习更新的模型。

相当于把前向传播的参数用一个model来更新

所有的序列建模层(sequence modeling layer)都可以视为该图中三个组件的不同实例:初始状态、更新规则和输出规则。

自注意力机制的隐藏状态随上下文增长,因此每个token的成本也随之增加。而naive RNN和TTT层都将增长的上下文压缩到固定大小的隐藏状态中,因此每个token的成本保持不变。

Details

所有序列建模层都可以从存储历史上下文到隐藏状态的角度进行查看:

RNN(LSTM、RWKV和Mamba)将上下文压缩到固定大小的状态中有两个后果。一方面,将输入t

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值