CNN网络分解--Factorized Convolutional Neural Networks

本文介绍了一种CNN网络的运算简化方法,通过对卷积层的改进,实现与GoogLeNet相同的精度但计算量减少了3.4倍。文章提出了几种新的卷积层结构,包括基于基的卷积层、堆叠单基层以及拓扑连接等,以提高效率并简化模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ICML2016

本文主要针对CNN网络的卷积运算进行深入分析,简化卷积运算。
Our model achieves accuracy of GoogLeNet while consuming 3.4 times less computation

本文和以前CNN网络简化工作最大的不同在于,以前都需要预训练完整的模型,在这个基础上简化完整模型,然后再微调简化后的模型。This limitation eliminates the possibility of improving efficiency while designing and training new CNN models from scratch。这就导致如果我们设计和训练一个新的CNN模型,如果想提高效率就比较困难了。

这里写图片描述

2 Method
2.1 Standard Convolutional Layer
标准的卷积网络和普通的卷积运算一样
这里写图片描述
这里 h*w是图像长宽, m 是输入特征通道的个数,n是输出特征通道的个数。

2.2 Convolutional Layer with Bases
这里写图片描述
这里我们先对每个通道进行卷积,得到得到和输入尺寸相同的输出,然后再对这些输出投影到输出通道

2.3 Convolutional Layer as Stacked Single Basis Layer
这里写图片描述
这里我们假定输入输出通道个数相同 m=n,我们做出以下改变:
a) 加入残差学习,卷积得到的输出直接加上输入
b) 将基的个数变为1
c) 对输出应用 RLU函数
d) 重复该层 b次,b为算法2中基的个数。

这里主要的思想就是通过残差学习,将复杂的一层网络变为很多层简单的网络,增加网络的深度,减少运算量。

2.4 Topological Connections
这里写图片描述
这里每个输出通道只考虑相邻的几个输入通道,而不是考虑所有的输入通道。
Each output channel is only connected with its local neighbors rather than all input channels

3 Experiments

这里写图片描述

这里写图片描述

另一篇csdn相关文献
http://blog.youkuaiyun.com/shenxiaolu1984/article/details/52266391

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值