xLSTM: Extended Long Short-Term Memory

更多内容,请关注微信公众号:NLP分享汇

原文链接:xLSTM: Extended Long Short-Term Memory


论文链接:https://arxiv.org/pdf/2405.04517

为什么要在27年后提出新的LSTM呢?

LSTM(长短期记忆网络)自20世纪90年代引入以来,在深度学习领域取得了巨大成功。然而,随着Transformer技术的出现,LSTM在规模化应用中的性能开始落后。

【感兴趣的小伙伴可以去读读之前写的这篇文章】

LSTM介绍

NLP分享汇,公众号:NLP分享汇长短期记忆网络 Long Short-Term Memory

所以,文章提出了一个问题:如果将LSTM扩展到数十亿参数规模,并利用LLMs的最新技术,同时解决LSTM的已知限制,那么在语言建模方面LSTM能走多远?

为了解决LSTM的限制,作者介绍了xLSTM,它通过以下两种主要改进来增强LSTM的能力

  • 指数门控(exponential gating)引入了适当的归一化和稳定技术,改进了LSTM的门控机制

  • 记忆结构修改(LSTM memory structure)对LSTM的记忆结构进行了修改,引入了两种新的记忆单元

    • sLSTM:具有标量记忆、标量更新和新的记忆混合技术。

    • mLSTM:具有矩阵记忆和协方差更新规则,能够完全并行化。

随后通过将这些LSTM扩展集成到残差块中,形成了xLSTM块,然后将这些块残差堆叠形成xLSTM架构。通过引入指数门控和修改记忆结构,xLSTM在性能和规模化方面能够与最先进的Transformer和状态空间模型相媲美。

一张图了解前世今生(xLSTM Family)

图片

图1 xLSTM 家族

图1左侧展示了传统的LSTM记忆单元,包括恒等误差旋转(Constant Error Carousel)和门控(Gating)机制。这些是LSTM的核心组成部分,用于处理和存储信息。在原始LSTM的基础上,引入了两种新的记忆单元sLSTM和mLSTM。然后将sLSTM和mLSTM记忆单元整合到残差块(Residual Blocks)中,形成了xLSTM Blocks。这些块是xLSTM架构的基本构建单元。最后通过残差堆叠(Residual Stacking)这些xLSTM块,形成了完整的xLSTM架构。这种架构设计用于处理长序列数据,并且能够扩展到数十亿参数规模。

记忆单元的特点:

  • 恒等误差旋转:表示LSTM中细胞状态的更新方式,通过输入和遗忘门控制。

  • Sigmoid门控:用于控制LSTM中信息的流动,包括输入、遗忘和输出门。

  • 循环推断:指的是LSTM在推断阶段的循环计算过程。

  • 循环训练:指的是LSTM在训练阶段的循环计算过程。

LSTM的局限性以及xLSTM是如何克服这些限制

图片

图2 三方较量图

图2左侧比较的是最近邻搜索问题(Nearest Neighbor Search problem)。LSTM在处理最近邻搜索问题时的局限性。这个问题要求模型在给定一个参考向量的情况下,顺序扫描序列以找到最相似的向量,并在序列末尾返回其附加值。均方误差(Mean Squared Error, MSE)&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值