Very Deep Convolutional Networks for Large-scale Image Recognition(vggnet)

VGGNet详解
VGGNet源自AlexNet,深入探讨了卷积神经网络的深度与性能的关系。通过堆叠3x3的卷积核和2x2的最大池化层,构建了16-19层的深层网络。3x3的卷积核可以捕捉上下左右中心的方向信息,1x1的卷积核用于增加非线性。两个3x3卷积核堆叠相当于一个5x5的卷积核,三个则相当于7x7,这增加了网络的非线性和减少了参数。

vggNet是从AlexNet而来,主要探索卷积神经网络的深度与性能之间的关系,通过反复堆叠3x3的卷积核(c中有1x1的卷积核,也只有c中有,c是16层)和2x2的最大池化层,vggNet构筑了16-19层深的卷积神经网络。

3x3卷积核:the smallest size to capture the notion of left/right,up/down,center

1x1卷积核:can be seen as a linear transformation of th input channels(followed by non-linearity)

整个网络的convolution stride固定为1,所有隐藏层的激活函数都用relu。

vggNet网络堆叠stride为1的3x3卷积核。两个3x3的卷积核堆叠的局部感受野相当于一个5x5的局部感受野,3个3x3的卷积核堆叠的局部感受野相当于7x7的局部感受野。堆叠的3x3卷积核比直接使用大的卷积核有两个好处:

1.增加非线性,因为每一层卷积核都有非线性激活函数relu,3层的3x3卷积核比7x7卷积核多进行了两次非线性变换,这样使得decision function more discriminative

2.减少了参数。假设通道数为c,3层3x3卷积核的参数量是3*(3*3*C*C),1层7x7卷积核的参数量是7*7*C*C。

vggNet中的1x1卷积核:GoogLeNet也采用了1x1卷积核,但不同的是,vggNet目的是增加非线性,而没有降维的目的。vggNet中要求1x1卷积核的输入输出维度应相等。

 

 

 

 

 

 

http://blog.youkuaiyun.com/wcy12341189/article/details/56281618 讲解vgg

http://blog.youkuaiyun.com/u014114990/article/details/51125776 多通道参数量的计算

转载于:https://www.cnblogs.com/ymjyqsx/p/6698343.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值