Main Content
所有的序列建模层都可以表示为一个根据更新规则进行转换的隐藏状态。
main idea:隐藏状态设为一个具有权重W的模型f,并将更新规则设为自监督损失ℓ的梯度步。
测试时训练(Test-Time Training, TTT):在测试序列上更新隐藏状态等同于在测试时训练模型f。
隐藏状态是一个自监督学习更新的模型。
相当于把前向传播的参数用一个model来更新
所有的序列建模层(sequence modeling layer)都可以视为该图中三个组件的不同实例:初始状态、更新规则和输出规则。
自注意力机制的隐藏状态随上下文增长,因此每个token的成本也随之增加。而naive RNN和TTT层都将增长的上下文压缩到固定大小的隐藏状态中,因此每个token的成本保持不变。
Details
所有序列建模层都可以从存储历史上下文到隐藏状态的角度进行查看:
RNN(LSTM、RWKV和Mamba)将上下文压缩到固定大小的状态中有两个后果。一方面,将输入t