VGGnet的网络结构和特点

VGGNet作为深度学习领域的经典模型,其结构相比AlexNet更加深化,通过使用小尺寸的卷积核来替代大尺寸卷积核,有效减少了参数量并增加了非线性变换的次数,提升了CNN对特征的学习能力。VGGNet在2014年的ILSVRC竞赛中获得亚军,错误率约为7.3%,其放弃LRN层,采用3*3的小卷积核,证明了网络深度和小卷积核的优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 网络结构: 
以224*224输入图片为例: 
 è¿éåå¾çæè¿°
感觉VGGNet就是加深版的AlexNet,都是卷积与池化的叠加,最后再加两层全连接,然后softmax输出。VGGNet有5段卷积,每段卷积由2~3个卷积层后加一个最大池化组成。卷积核的数量也随着层数的增加而增多。VGGNet也沿用了AlexNet数据增强的方法(Multi-Scale)防止模型过拟合。 
相较与AleNet,VGGNet最大的改进或者说区别就是用小size的Filter代替大size的Filter。比如,在VGGNet中,下面这种结构很常见,就是会用两个3*3的卷积核代替一个5*5的卷积核, 
 è¿éåå¾çæè¿°
为什么这样呢?这样训练的好处有: 
①需要训练的参数减少。如果卷积层C2的卷积核数量是N,上一层C1卷积核数量是M,则用一个5*5 size的卷积核实现该层卷积的参数数量是:5*5*N*M=25N*M;如果用两个3*3 size大小的卷积核代替一个5*5 size大小的卷积核,此时的参数数量是:(3*3*2)*N*M=18N*M。 
②增加非线性变换的次数,增加了CNN对特征的学习能力。一个5*5的卷积核,经过一次卷积,则只进行一次非线性变换,而两个3*3的卷积核,则经过两次非线性变换。 


2 成绩: 
2014年亚军,错误率7.3%左右。 


3 新技术点: 
①LRN层作用不大,还耗时,抛弃。 
②网络越深,效果越好。 
③卷积核用较小的卷积核,比如3*3。 
VGGNet模型虽然比Alexnet模型层数多,每轮训练的时间会比Alexnet长许多,但是因为更深的网络和更小的卷积核带来的隐式正则化结果,需要的收敛的迭代次数较少许多。

转自:https://blog.youkuaiyun.com/jiafeier_555/article/details/77341290

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值