1.VGG16理论
VGG是由Simonyan 和Zisserman在文献《Very Deep Convolutional Networks for Large Scale Image Recognition》中提出卷积神经网络模型,其名称来源于作者所在的牛津大学视觉几何组(Visual Geometry Group)的缩写。
该模型参加2014年的 ImageNet图像分类与定位挑战赛,取得了优异成绩:在分类任务上排名第二,在定位任务上排名第一。它的结构如下图所示:

1、一张原始图片被resize到(224,224,3)。
2、conv1两次[3,3]卷积网络,输出的特征层为64,输出为(224,224,64),再2X2最大池化,输出net为(112,112,64)。
3、conv2两次[3,3]卷积网络,输出的特征层为128,输出net为(112,112,128),再2X2最大池化,输出net为(56,56,128)。
4、conv3三次[3,3]卷积网络,输出的特征层为256,输出net为(56,56,256),再2X2最大池化,输出net为(28,28,256)。
5、conv3三次[3,3]卷积网络,输出的特征层为256,输出net为(28,28,512),再2X2最大池化,输出n
本文介绍了VGG16模型的理论背景及其在2014年ImageNet比赛中的表现。VGG16由多个卷积层和最大池化层构成,以实现深度图像识别。接着,文章提供了使用Python、CUDA和TensorFlow实现VGG16的简要概述,并提及在毫米波雷达数据上的应用,尽管受限于GPU资源,但经过500次迭代可达到95%的效果。
订阅专栏 解锁全文
4712

被折叠的 条评论
为什么被折叠?



