《MobileBERT: a Compact Task-Agnostic BERT for Resource-Limited Devices》(ACL-2020)论文阅读

本文介绍了一种名为MobileBert的新模型,它是Bert模型的轻量化版本,通过加入bottleneck机制减少参数量,同时保持深度,实现模型压缩和加速。文章详细解释了bottleneckstructures的作用,以及如何通过teacher-student机制进行有效训练。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

Abstract

提出 MobileBert 来压缩和加速 Bert 模型。

1、Introduction

MobileBERT 采用的和 BERT-large 一样深的层数,在每一层中的 transformer 中加入了 bottleneck 机制使得每一层 transformer 变得更窄。那么 bottleneck structures 是个什么东西呢?看下面这个图:

其中 a 是bert,从图中可以看出,多了两个全连接层,就是图中的矩形,这个就是作者说的bottleneck structures。它的主要作用是调整输入输出维度。

2、Related Work

过。

3、MobileBert

3.1、Bottleneck and Inverted-Bottleneck

模型接口就是如上面图所示,它跟 Bert-large 一样深,但是参数小很多,以此来减小模型。另外加了上述的 bottleneck structures 调整输入输出的维度,也是为了减小参数。但是训练这种很深有很瘦的网络是一个挑战,然后作者提出先训练好教师网络,然后将其信息转移到 MobileBert 中。teacher model 是 Bear-large,但是增加了反向的 bottleneck structures

3.2、Stacked Feed-Forward Networks

引入了 bottleneck structure 明显改变了模型结构,它可能会破坏

总的来说,作者想减小模型的参数,但是这样会让模型难以训练,然后就想用 teacher 网络指导训练,但又不好直接指导,然后进引入了 bottleneck structure 结构,引入这个结构后,又可能让原本的结构变差,然后提出了堆叠 linear 层次来解决该问题。

3.3、Operational Optimizations
  • 将normalization操作转换为element-wise的线性变换。
  • 把smooth GeLU的激活函数更换为ReLU。
3.4、Embedding Factorization

减小Embedding 的参数,做法是用多核的1维卷积操作来提特征。

3.5、Training Objectives

未完待续

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值