顾名思义
分组卷积(Group Convolution)顾名思义,在对特征图进行卷积的时候,首先对特征图分组再卷积。如下图所示:

这样做有啥作用呢?
- 减少参数量,分成G组,则该层的参数量减为原来的1/G。
feature map尺寸为CiHW,常规卷积的参数量是Ci*H*W*Co;
分G组的分组卷积参数量是(Ci/G)*H*W*(Co/G)*G=(Ci*H*W*Co)/G;可以自己举一个简单的例子试一试。 - 分组卷积可以看做是对原来的特征图进行了一个dropout,有正则的效果。
- 如果分组的数量等于特征图通道的的数量,这样卷积就是在二维的平面进行,一个卷积核对应一个通道,这样就变成深度可分离卷积(Depthwise Convolution),见MobileNet和Xception等,参数量进一步缩减。
- 更进一步,如果在上一步的基础上将卷积核的大小设置为和特征图一样大,此时称为全局深度可分离卷积(Global Depthwise Convolution),见MobileFaceNet;可以看成全局加权池化(可以代替全连接层,并且相较于全连接层,有少参数、防过拟合优点)
参考
Group Convolution分组卷积,以及Depthwise Convolution和Global Depthwise Convolution
786





