Lenet,1998年
Alexnet,2012年 改进模型 ZFNet
GoogleNet,2014年
VGG,2014年
ResNet,2015年
Deep Residual Learning,2015年
从下往上看:
LeNet 7层:卷积、池化、卷积、池化、卷积、全连接、softmax输出
AlexNet 11层:5个卷积、3个池化、3个全连接
8个模块(5层卷积+3层全连接+输出):卷积+ReLU+池化+标准化、卷积+ReLU+池化+标准化、卷积+ReLU、卷积+ReLU、卷积+ReLU+池化、全连接+ReLU+Dropout、全连接+ReLU+Dropout、全连接、softmax输出
LeNet和AlexNet区别:AlexNet提出了ReLU,增加了标准化和Dropout层(BN层和Dropout层只在训练阶段使用)
AlexNet更强调了全连接层的作用,它用了两个全连接层,那么为了减少权重的数目,才引出了dropout这个概念
输入尺寸:227*227像素(因为竞赛的需要) 224*224?
卷积层:好多(因为输入尺寸的需要)
降采样层:好多(因为输入尺寸的需要)
标准化层:这个反正就是一个公式
输出:1000个类别(因为竞赛的需要)
AlexNet的结构图,是由八个模块组成的。
https://www.jianshu.com/p/58168fec534d