卷积神经网络学习2.6

inception network

一个例子

 inception network

指的是与其去考虑该使用多大的filter乃至去考虑需要一个卷积层或池化层,不如全部都做。

可以使用1x1的卷积核,会得到28x28x64的输出;

为了保证维度相同,把得到的输出使用same padding 的方法堆积在一起,所以得到的仍然是28x28的维度;

也可以使用3x3的卷积核,得到20x20x128的输出;

也可以使用5x5的卷积核,得到28x28x32的输出

再使用池化层,会得到其他的输出,在这里是28x28x32。

所以用一个inception 模块,使输入的28x28x192,输出为28x28x256。

这就是inception network的核心。

特点是:不用去只挑选一个卷积核的大小或pooling,可以所有都做,把输出的结果连接起来,然后让神经网络去学习他想用到的参数以及他想用到的卷积核大小。

以上也引出一个计算成本问题

计算成本的例子

 

 这里关注f = 5的情况,使用32个5x5的卷积核,使用same填充,输出28x28x32

 另一种方法

 

在这种方法中将大的输入量减小成一个较小的中间量,只有16个通道,叫做瓶颈层'bottleneck layer'

计算成本小于第一种

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值