论文原文:
https://www.robots.ox.ac.uk/~vgg/publications/2015/Simonyan15/simonyan15.pdf
论文翻译
vgg
如果上述链接失效,在这里寻找
http://noahsnail.com
论文总结:
https://my.oschina.net/u/876354/blog/1634322
https://www.cnblogs.com/itmorn/p/11217196.html
1、VGG的全称
VGG是Visual Geometry Group Network的缩写,视觉几何群网络。
2、预处理
图片的预处理就是每一个像素减去了均值。
3、VGG16中数字“16”的缘由?(19同理)
VGG结构中有13个卷积层和3个全链接层。
4、为什么池化不称作池化层?
因为池化无需计算w参数,也即没有w矩阵。
5、为什么卷积没有考虑正则,全连接考虑了正则?
因为卷积层的w个数相对少,在一定程度上可以防止过拟合,而全连接层所需计算的w参数多,故需要考虑正则以防止过拟合。
6、VGG16架构是卷积+卷积+卷积+池化,为什么不是卷积+池化,这样做的好处是什么呢?
(1)这样可以减少w的数量,可加快计算速度
(2)w个数减少可以防止过拟合
(3)网络层次深,由于每个卷积都会有一个激活函数,故可拟合更复杂的数据。
7、VGG可以用来做什么?
可以用来做迁移学习。
8、什么是迁移学习?
将一个领域的已经成熟的知识应用到其他的场景中。
9、所用卷积核和池化核的大小是多少?
卷积核大小为(3,3),池化核大小为(2,2)。