【论文笔记】VGG-2014-研读

本文深入解析VGG网络,包括其全称、预处理方法、结构特点、为何采用特定的架构设计,以及如何应用于迁移学习等关键信息。同时,探讨了卷积与全连接层在正则化上的差异,卷积核与池化核的大小选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

论文原文:
https://www.robots.ox.ac.uk/~vgg/publications/2015/Simonyan15/simonyan15.pdf
论文翻译
vgg
如果上述链接失效,在这里寻找
http://noahsnail.com

论文总结:
https://my.oschina.net/u/876354/blog/1634322

https://www.cnblogs.com/itmorn/p/11217196.html

1、VGG的全称
VGG是Visual Geometry Group Network的缩写,视觉几何群网络。

2、预处理
图片的预处理就是每一个像素减去了均值。

3、VGG16中数字“16”的缘由?(19同理)
VGG结构中有13个卷积层和3个全链接层。

4、为什么池化不称作池化层?
因为池化无需计算w参数,也即没有w矩阵。

5、为什么卷积没有考虑正则,全连接考虑了正则?
因为卷积层的w个数相对少,在一定程度上可以防止过拟合,而全连接层所需计算的w参数多,故需要考虑正则以防止过拟合。

6、VGG16架构是卷积+卷积+卷积+池化,为什么不是卷积+池化,这样做的好处是什么呢?
(1)这样可以减少w的数量,可加快计算速度
(2)w个数减少可以防止过拟合
(3)网络层次深,由于每个卷积都会有一个激活函数,故可拟合更复杂的数据。

7、VGG可以用来做什么?
可以用来做迁移学习。

8、什么是迁移学习?
将一个领域的已经成熟的知识应用到其他的场景中。

9、所用卷积核和池化核的大小是多少?
卷积核大小为(3,3),池化核大小为(2,2)。

参考
https://zhuanlan.zhihu.com/p/46282107

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

机器不学习我学习

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值