Maxout Networks及实现原理

maxout:http://arxiv.org/pdf/1302.4389v4.pdf
maxout出现在ICML2013上,作者Goodfellow(GAN的发明者)将maxout和dropout结合后,在MNIST, CIFAR-10, CIFAR-100, SVHN这4个数据上都取得了stat-of-the-art的识别率(大概就是最先进最好的意思吧?)。

MAXOUT

论文中证明Maxout可以拟合任何凸函数,是一个通用的函数拟合器。

如下图二维函数(ReLU函数、V型函数、二次型函数)的拟合,
通过构造多个仿射变换来对其进行逼近,对分段函数每段取最大。

这里写图片描述

具体原理如下图:
输入层两维,隐层四维,输出一维。
这里写图片描述

对于一般卷积网络,直接得到h=conv(wx+b)

maxout,如下图中间又加一层(有的叫隐隐层…)五个神经元,
过程相当于

1 先conv(wx+b)得到五个z值,构成5层的featuremap
2 随后,再对以最大池化步长(max pooling stride)为5
  进行maxpooling。

再一般化:
输入/特征图尺寸:

(minibatch_size, num_input_channels,
 image_width, image_height)

filters :

(num_filters, num_input_channels, 
filter_width, filter_height)

output shape(stride=1)

(minibatch_size, num_filters, 
image_width - filter_width + 1,
 image_height - filter_height + 1)

在 num_filters 维度使用max-pooling(max-pooling stride=5):

(minibatch_size, num_filters / 5,
 image_width - filter_width + 1, 
 image_height - filter_height + 1)

reference

http://blog.youkuaiyun.com/zhufenghao/article/details/52527047
https://github.com/benanne/kaggle-galaxies/issues/2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值