MobileNet

时间:2017 2018

背景

传统卷积神经网络,内存需求大、运算量大,导致无法在移动设备以及嵌入式设备上运行。

MobileNet v1

概念

网络中的亮点:

  • Depthwise Convolution(大大减少运算量和参数数量)
  • 增加超参数α,β

传统卷积

输入深度为3的特征矩阵,使用4个卷积核进行卷积。每个卷积核的深度都和输入特征矩阵的深度是相同的。这里的输入特征矩阵的深度是3,所以卷积核的深度也是3。输出特征矩阵的的深度是由卷积核的个数所决定的。我们采用四个卷积核,所以我们输出特征矩阵的个数为4。

总结下来就是

  • 卷积核channel = 输入特征矩阵channel
  • 输出特征矩阵channel=卷积核个数

DW卷积 Depthwise Conv

每个卷积核的深度都是为1的,并不像我们传统卷积一样,卷积核的深度等于特征矩阵的深度。这里的每一个卷积核只负责与我们输入特征矩阵的一个channel进行卷积运算,然后再得到相应的输出特征矩阵的一个channel。既然我们每一个卷积核负责一个channel,那么我们所采用的卷积核的个数应该与输入特征矩阵的深度相同,这样能保证每一个卷积核负责一个channel。又由于我们每一个卷积核与我们的输入特征矩阵的一个channel进行卷积后得到一个输出特征矩阵的channel。我们输出特征矩阵的深度也就与我们卷积核的个数相同,进一步与我们输入特征矩阵的深度相同。记性总结如下两点:

  • 卷积核channel = 1
  • 输入特征矩阵channel=卷积核个数=输出特征矩阵channel

PW卷积 Pointwise Conv

PW卷积就是普通的卷积,只不过我们卷积核的大小是等于1而已。通过图中可以看到,我们每一个卷积核,他的深度同样与我们输入特征矩阵的深度相同,输出特征矩阵的深度与我们卷积核的个数是相同的。所以它就是一个普通的卷积,只不过卷积核大小为1而已。

通常我们的PW和DW 是放在一起使用的,使用的深度可分卷积相比与我们普通的卷积而言到底能节省多少参数呢。

 α和β

α

代表卷积核个数的倍率,控制我们卷积过程中所采用的卷积核的个数。

β

分辨率的参数,输入的图像尺寸。

 

MobileNet v2

 

 

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值