语言模型词嵌入矩阵压缩技术突破

压缩语言模型的词嵌入矩阵

通过结合低秩近似、新型残差二进制自编码器和创新的压缩损失函数,实现了压缩比五倍的提升。

会议:KDD 2023

相关出版物:LightToken:面向预训练语言模型的与任务和模型无关的轻量级词嵌入框架

像BERT、RoBERTa和DeBERTa这样的预训练语言模型(PLMs)在经过任务特定数据微调后,在自然语言推理、情感分类和问答等多种自然语言任务中展现出卓越性能。PLMs通常包含词嵌入矩阵、具有注意力机制的深度神经网络和输出层。由于其庞大的词汇表,词嵌入矩阵往往占据模型的很大部分:例如,它占BERT模型大小的21%以上,占RoBERTa的31.2%。此外,由于词频的差异,词嵌入矩阵包含大量冗余。因此,任何能够压缩词嵌入矩阵的技术都有可能补充其他模型压缩方法,从而提高压缩比。

在今年的知识发现与数据挖掘会议(KDD)上,我们团队提出了一种压缩PLMs词嵌入矩阵的新方法,该方法结合了低秩近似、新型残差二进制自编码器和创新的压缩损失函数。我们在自然语言理解和问答任务上评估了名为LightToken的方法。发现其词嵌入压缩比(未压缩矩阵大小与压缩矩阵大小之比)达到25,而性能最佳的前代方法仅达到5。同时,LightToken实际上提高了相对于现有矩阵压缩方法的准确率,在GLUE基准上超出11%,在SQuAD v1.1上超出5%。

理想特性

压缩PLMs词嵌入矩阵的理想方法应具备以下特征:(1)任务无关性,确保在不同下游任务中有效应用;(2)模型无关性,可作为模块化组件无缝集成到各种骨干模型中;(3)与其他模型压缩技术的协同兼容性;(4)高压缩比且模型性能下降极小。LightToken满足这些标准,以独立于特定任务和特定模型的方式生成压缩词嵌入。

秩k SVD近似

许多先前研究强调了奇异值分解(SVD)在有效压缩模型权重矩阵方面的效力。SVD将矩阵分解为三个矩阵,其中一个是对角矩阵。对角矩阵中的条目(奇异值)表示每个变量解释的数据方差量。通过仅保留高奇异值,可以将高维数据投影到低维子空间。词嵌入矩阵通常具有相对较少的奇异值。因此,我们方法的第一步是使用SVD对词嵌入矩阵实现小k值的秩k近似。

残差哈希

在实验中,我们发现仅依赖秩k压缩矩阵虽然提供了大幅压缩,但严重影响了下游任务的性能。因此LightToken还使用残差二进制自编码器来编码完整词嵌入矩阵与从秩k压缩矩阵重构的矩阵之间的差异。

自编码器被训练为输出与输入相同的值,但在此过程中产生输入的压缩向量表示。我们将这些表示约束为二进制:即哈希码。然而,二进制码是不可微的,因此在模型训练期间,为了使用标准梯度下降学习算法,必须用温和的Sigmoid激活函数近似二进制值,该函数在低值和高值之间具有陡峭斜率。

然而,经过多个训练周期,温和Sigmoid容易饱和:网络中的每个节点对每个输入都激活,阻止网络学习非线性函数。因此我们创建了一种新颖的训练策略,其中自编码器训练到接近饱和点,然后对旧残差与新哈希码之间的残差进行训练。最终哈希码实际上是哈希码的串联,每个哈希码编码前一个码的残差。

损失函数

通常,像我们这样的模型会被训练以最小化重构词嵌入矩阵与未压缩矩阵之间的欧几里得距离。但我们发现欧几里得距离在某些自然语言处理(NLP)任务和小训练集任务上表现不佳。我们假设这是因为欧几里得距离对嵌入空间中向量之间的角度关注不足,而在NLP任务中角度可能携带语义信息。因此我们提出了一种新的重构损失,作为欧几里得距离的上限。该损失通过重新校准余弦相似度,鼓励模型优先考虑原始嵌入和压缩嵌入之间的对齐。

实验结果

我们在两个基准数据集上进行了全面实验:GLUE和SQuAD 1.1。结果清楚证明了LightToken相对于现有基线的显著优越性。具体而言,LightToken实现了令人印象深刻的25倍压缩比,同时保持准确率水平。此外,当压缩比提高到103时,准确率损失与原始基准相比仍保持在6%的适度偏差内。

研究领域:对话式AI

标签:语言模型、压缩、KDD

会议:KDD 2023

相关出版物:LightToken:面向预训练语言模型的与任务和模型无关的轻量级词嵌入框架
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值