GoogLeNet Inception v1详解

GoogLeNet Inception v1

论文《Going Deeper with Convolutions》

1. 研究背景

提高神经网络的性能,最直接的方法就是增加神经网络的大小,大小包括了网络的深度和宽度。

但是一味地增加网络大小,会带来一些不利的影响:

  1. 神经网络的大小增加,会带来大量的参数,模型更容易出现过拟合问题;
  2. 神经网络的大小增加,会使模型在训练过程中的计算开销增加。

解决上述问题方法,在模型中引入稀疏性(sparsity),用一个稀疏的网络结构去代替现有的全连接网络结构,以减少网络中的参数数量和计算量。

卷积神经网络(convolutional neural network)就是通过使用卷积层向模型引入空间域的稀疏性。

使用稀疏结构还带来了一个新的问题,即计算机对于稀疏数据结构的运算效率比较低

2. 设计思路

文中也通过使用卷积层向模型引入稀疏性。

为了解决结果计算效率低的问题,文中参考了稀疏矩阵计算的文献,通过将稀疏矩阵聚集为一个相对稠密的矩阵的方法来提高矩阵乘法的运算性能。

文中还参考了《Robust object recognition with cortex-like mechanisms》中使用一系列不同大小的Gabor滤波器去处理图像的方法,尝试使用在一层中使用多个不同大小的filter,这也符合了稀疏矩阵聚集为稠

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值