MobileNet详解


DW卷积:

每个卷积核的深度为1,而不是像之前一样等于特征矩阵的深度。
每个卷积核只负责输入特征矩阵的一个channel进行卷积运算,再得到相应的输出矩阵的一个channel。
因为每个卷积核只负责一个channel,则采用的特征矩阵的深度就应该与输入特征矩阵的深度相同,这样即可确保每一个卷积核负责一个channel。
又因为每个卷积核与输入特征矩阵的一个channel进行卷积之后,得到一个输出特征矩阵的channel,则输出特征矩阵的深度与卷积核的个数相同,进一步与输入特征矩阵的深度相同。
深度可分的卷积操作

DW卷积+PW卷积
PW卷积:普通卷积,但是卷积核大小等于1。由上图可以看出,每个卷积核的深度与输入特征矩阵的深度相同,输出特征矩阵的深度与卷积核的个数相同。
相比普通卷积而言,参数的变化:

MobileNet系列模型利用深度可分卷积(DW+PW)减少计算量,MobileNetV2通过改进的倒残差结构解决V1的缺点,使用ReLU6激活函数。文章介绍了如何用PyTorch构建MobileNetV2并进行迁移学习训练。
最低0.47元/天 解锁文章
4175

被折叠的 条评论
为什么被折叠?



