VGG结构解析及tensorflow代码实现(初学者,配套自己代码实现,可以快速部署到应用中)

本文详细介绍了VGG网络的结构、训练过程,以及在Tensorflow中的实现。VGG通过使用小尺寸卷积核增加网络深度,减少了参数量。文章还探讨了网络的优缺点,并提供了VGG在Tensorflow中的简洁实现代码,以及如何进行fine-tuning以适应新数据集。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

VGG 论文

1. 前言

VGG 论文地址

       论文标题为Very Deep Convolutional Networks For Large-scale Image Recognition。从标题可以看出作者主要是从网络的深度入手,研究大量数据的图像识别任务中网络的深度对精确度的影响。由于此论文是由Oxford Visual Geometry Group提出的,因此被成为VGG网络。此网络在2014年ImageNet的图像分类竞赛中是第二名,在图像定位竞赛中是第一名。

2. 网络模型

为了评估网络深度对精确度的影响,要固定网络的部分结构。

  • Input 224x224x3 RGB图片,预处理用训练的图片减去所有训练图片算出来的RGB均值
  • Convolution有1x1和3x3两种。1x1的Conv进行降维并且增加非线性,3x3的Conv代替7x7减少参数。stride都为1,padding为same
  • 5个2x2 max pool层,stride为2,降低图片size,224x224 -> 7x7
  • 最后3层都是FC
  • 每一个隐藏层都使用Relu激活

作者尝试了6种网络结构,下图展示

VGG structure

        测试下来,效果最好的是D和E两种结构。数一下网络层数可知D是16层,E为19层,就是我们一般所说的VGG-16和VGG-19,下图以VGG-19为例显示网络结构。

VGG-19 structure

        另外作者还提到了用3x3卷积核来替代5x5和7x7卷积核的原因。因为两个3x3的卷积核可以达到5x5的卷积核的效果,三个3x3的卷积核能够达到7x7的卷积核的效果,但是参数数量会大大减少。举个例子:如果输入一张5x5x3的图片,经过两次3x3的卷积运算可以得到1x1x1的结果,跟经过一次5x5的卷积运算效果一样。但是前者参数量只有后者的18/25倍。如果用三个3x3的

评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值