GhostNet:More Features from Cheap Operations.
1、主要思想
深度网络处理过的特征有一部分冗余,这类特征可以通过更廉价的方式获取,不一定非要传统代价较为高昂的运算方式。也就是说,它主要针对网络Feature Map通道间存在的相似性,引入通道间的线性变换来替代原始的传统CNN运算,在减少网络参数和计算量的同时,保持Feature Map原本的通道数和不同通道间的相似性,从而不至于影响模型的表达能力。
至于引入冗余特征而不是对其进行剪枝的原因,可能是由于在对其他因素造成影响尽可能小的前提下,去优化计算量及由此带来的模型参数数量减少,这样不容易引入新的问题。从另一个角度讲,冗余信息的存在,也许能够使后续的分类、回归任务更加简单。例如有些二维空间需要通过曲线进行分割的数据,通过增加一个维度,在三维空间仅需一个平面就能轻易分割。这个类比可能不是很严谨,但是也可以作为引入冗余的信息来使分类任务更容易进行。
下图所示,左上角输入的小猫图片经ResNet-50网络的第一个residual group后得到的部分Feature Map。我们可以看到,其中红色、绿色、蓝色标出的三组Feature Map存在较大的相似性,作者认为可以利用这种相似性,在其中一些基础Feature Map的基础上,使用相比标准CNN卷积核更加简单地线性运算来得到与其相似的Feature Map。

GhostNet是一种深度网络架构,通过引入廉价的线性变换替代部分传统卷积运算,减少计算量和参数数量,同时保持模型的表达能力。Ghost模块是其核心,通过内在卷积和线性变换生成相似的Feature Map。实验表明,GhostNet在CIFAR-10、ImageNet和MS-COCO等数据集上表现出有效性。
最低0.47元/天 解锁文章
838

被折叠的 条评论
为什么被折叠?



