我们上篇文章了解了一下NIN ,接下来我们来了解一下VGGNet,可以说是另一波的跪舔和膜拜。VGGNet主要是分为两篇文章,第一篇文章来分享一下VGGNet的网络结构还有训练环节,第二篇文章是分享VGGNet做的分类实验和总结。此为第一篇。
文章目录
1. VGGNet之旅
1.1 作者介绍
1.2 对VGGNet的跪拜_(:3 J Z)_
作者对六个网络的实验结果在深度对模型影响方面,进行了感性分析(越深越好),实验结果是16和19层的VGGNet(VGG代表了牛津大学的Oxford Visual Geometry Group,该小组隶属于1985年成立的Robotics Research Group,该Group研究范围包括了机器学习到移动机器人)分类和localization的效果好(作者斩获2014年分类第二,localization第一,分类第一是当年的GoogLeNet.)下面是来自一段(摘自知乎)对同年的GoogLeNet和VGG的描述:
GoogLeNet和VGG的Classification模型从原理上并没有与传统的CNN模型有太大不同。大家所用的Pipeline也都是:训练时候:各种数据Augmentation(剪裁,不同大小,调亮度,饱和度,对比度,偏色),剪裁送入CNN模型,Softmax,Backprop。测试时候:尽量把测试数据又各种Augmenting(剪裁,不同大小),把测试数据各种Augmenting后在训练的不同模型上的结果再继续Averaging出最后的结果.
1.3 前情提要
1.4 作者干了啥:
- 卷积核变小,只有更小没有最小 (ZFNet+OverFeat+NIN);多尺度==(Overfeat)==
- 层数更深,卷积层更宽
- 池化核变小且为偶数,减小信息损失
- 测试阶段将三个全连接替换为卷积:思想来自OverFeat,1×1的卷积思想则来自NIN,优点在于全卷积网络可以接收任意尺度的输入(这个任意也是有前提的,长和宽都要满足:(2**n),n是卷积与池化做stride=2的下采样的次数)
- 打了很多比赛,头够铁
2. VGGNet网络结构
2.1网络结构简述
- 输入: 在训练的过程中,输入我们卷积层(们)的图像是固定