目录
1、AlexNet网络模型
2012年,Alex等人提出的AlexNet网络在ImageNet大赛上以远超第二名的成绩夺冠,卷积神经网络乃至深度学习重新引起了广泛的关注。主要特点有:
- 更深的网络结构
- 使用层叠的卷积层,即卷积层+卷积层+池化层来提取图像的特征
- 使用Dropout抑制过拟合
- 使用数据增强Data Augmentation抑制过拟合
- 使用Relu替换之前的sigmoid的作为激活函数
- 多GPU训练
网络模型如下:
参考链接:
(1)https://www.jianshu.com/p/00a53eb5f4b3
(2)https://www.cnblogs.com/wangguchangqing/p/10333370.html
(3)论文翻译:http://noahsnail.com/2017/07/04/2017-07-04-AlexNet%E8%AE%BA%E6%96%87%E7%BF%BB%E8%AF%91/
2、VGG网络模型
2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发出了新的深度卷积神经网络:VGGNet,并取得了ILSVRC2014比赛分类项目的第二名(第一名是GoogLeNet,也是同年提出的)和定位项目的第一名。但是VGG模型在多个迁移学习任务中的表现要优于googLeNet。而且,从图像中提取CNN特征,VGG模型是首选算法。它的缺点在于,参数量有140M之多,需要更大的存储空间。但是这个模型很有研究价值。
VGGNet的经典论文《Very Deep Convolutional Networks for Large-Scale Image Recognition》(基于甚深层卷积网络的大规模图像识别),在该论文中对VGG的思想、测试情况进行了详细介绍,建议阅读这篇论文加深了解。
(来自百度百科)主要特点如下:
(1)小卷积核。作者将卷积核全部替换为3x3(极少用了1x1);
(2)小池化核。相比AlexNet的3x3的池化核,VGG全部为2x2的池化核;
(3)层数更深特征图更宽。基于前两点外,由于卷积核专注于扩大通道数、池化专注于缩小宽和高,使得模型架构上更深更宽的同时,计算量的增加放缓;
(4)全连接转卷积。网络测试阶段将训练阶段的三个全连接替换为三个卷积,测试重用训练时的参数,使得测试得到的全卷积网络因为没有全连接的限制,因而可以接收任意宽或高为的输入。
参考链接
(1)https://my.oschina.net/u/876354/blog/1634322
(2)论文翻译:https://blog.youkuaiyun.com/quincuntial/article/details/77386778
3、Inception模型(googleNet)
3.1[v1]
V1论文:Going Deeper with Convolutions,ensemble top5 error 6.67%,2014
V1论文翻译:https://blog.youkuaiyun.com/c_chuxin/article/details/82856502
V1论文解析1:https://www.jianshu.com/p/a2ad00eddbd5(内部取消全连接层的观点保留)
V1论文解析2:https://www.jianshu.com/p/22e3af789f4e
3.2[v2]
V2论文: Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,ensemble top5 error 4.8%,2015
论文翻译:https://blog.youkuaiyun.com/Quincuntial/article/details/78124629
3.3[v3]
V3论文: Rethinking the Inception Architecture for Computer Vision,ensemble top5 error 3.5%,2015
论文翻译:https://blog.youkuaiyun.com/Quincuntial/article/details/78564389
论文解析[V1-V4]https://blog.youkuaiyun.com/loveliuzz/article/details/79135583
[v4] Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning,ensemble top5 error 3.08%,2016
4 ResNet
ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,对应的论文 《Deep Residual Learning for Image Recognition》是 2016 CVPR 最佳论文,通过使用ResNet Unit成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,同时参数量比VGGNet低,效果非常突出。ResNet的结构可以极快的加速神经网络的训练,模型的准确率也有比较大的提升。同时ResNet的推广性非常好,甚至可以直接用到InceptionNet网络中。
ResNet 是何凯明团队的作品,对应的论文 《Deep Residual Learning for Image Recognition》是 2016 CVPR 最佳论文。ResNet 的 Res 也是 Residual 的缩写,它的用意在于基于残差学习,让神经网络能够越来越深,准确率越来越高
全网目前发现最好的一篇解析:https://blog.youkuaiyun.com/weixin_43624538/article/details/85049699
5Xception
Xception借鉴了depth wise separable conv改进InceptionV3,将空间和通道完全分离,从而提升了性能,降低了参数量。
论文: Deep Learning with Depthwise Separable Convolutios
翻译:https://blog.youkuaiyun.com/albertshi12/article/details/81303245
使用了深度可分离卷积:depthwise separable convolution
6、DenseNet
今天我们要介绍的是DenseNet模型,它的基本思路与ResNet一致,但是它建立的是前面所有层与后面层的密集连接(dense connection),它的名称也是由此而来。DenseNet的另一大特色是通过特征在channel上的连接来实现特征重用(feature reuse)。这些特点让DenseNet在参数和计算成本更少的情形下实现比ResNet更优的性能,DenseNet也因此斩获CVPR 2017的最佳论文奖。
论文翻译:https://zhuanlan.zhihu.com/p/31647627(Densely Connect Convolutional Networks),使用火狐浏览器
解析:https://blog.youkuaiyun.com/sigai_csdn/article/details/82115254
复现:https://github.com/titu1994/DenseNet
7、轻量化模型
7.1 SqueezeNet
(1)论文:SqueezeNet:AlexNet-level accuracy with 50x fewer parameters and <0.5MB
(2)翻译:https://blog.youkuaiyun.com/u013044310/article/details/80188530
(3)核心观点:
①提出了Fire Model模型
②使用率deep compression压缩模型(Deep compression是ICLR-2016 best paper)
一些参考论文:https://blog.youkuaiyun.com/u011995719/article/details/78908755
7.2 MobileNet
MobileNet 由Google团队提出,发表于CVPR-2017,
论文: 《MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications》
7.3ShuffleNet
论文:ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices
翻译:https://blog.youkuaiyun.com/u011974639/article/details/79200559
第七章总体参考
(1)https://www.cnblogs.com/vincent1997/p/10916734.html
(2)https://www.cnblogs.com/vincent1997/p/10916734.html