一. 内容概括
本文提出了经典的VGG模型用于图像分类任务,目前VGG16和VGG19仍然是最为常用的CNN模型,文章主要证明了深度对于神经网络的重要性,为今后的发展提供了一个很好的思路。
二.贡献点
1.成功构建了16层(13Conv+3FC)和19层(16Conv+3FC)的有效的网络结构。
2.证明了深度对于神经网络来说是非常重要的。
3在大型数据集ImageNet中训练得到的模型测试准确率高于当时已有的其他方法。
三.主要内容
文中提出的VGG模型中所有的卷积层都是用33的小卷积核,所有池化层用的是22的filter。两个33的卷积层的感受野可以代替一个55的卷积层,三个33的卷积层可以代替一个77的卷积层,这样可以有效地减少参数计算成本。假设输入输出channel均为C,三个33参数个数为3(33CC)=27C²,一个77参数个数为77CC=49C²,因此用三个33的卷积层代替一个77的卷积层可以节省近一半的参数计算量。
在训练的过程中输入的图像是224224的RGB图像,预处理方法是每个像素值都减去RGB的均值。
模型中前两个FC层之后都添加了0.5的dropout,所有卷积层的激活函数都是用ReLU。
每层的feature map大小变化流程如下图:
四.实验结果
在2014年的ILSVRC图像分类大赛中,VGG取到了非常好的效果,对比其它参赛模型准确率更高。
VGG模型总结
最新推荐文章于 2025-03-19 11:06:16 发布