卷积神经网络AlexNet
在这一讲中,我们将详细讲解深度学习发展中的重要里程碑AlexNet。
1. AlexNet的历史
2012年Geoffrey Hintton的学生ALEX Krizhevsky构建了一个包含65万多个神经元,待估计参数超过6000万的大规模的卷积神经网络。他以自己的名字命名了这个神经网络叫作AlexNet,用以解决ImageNet数据集1000类的分类问题。在2012年,ImageNet测试比赛上取得了远超Goole和Facebook两个大公司的成绩。相比前面讲过的LeNet,AlexNet在网络结构上深了很多,即神经网络层数和每层神经元个数多了很多,但其基本思想与LeNet完全一样,我们看懂了LeNet后能很容易看懂AlexNet,下图1是AlexNet的网络结构图。

2. AlexNet网络结构简要分析
从图1也可以看到,它也是由一些卷积层、降采样层和全连接层组成的。需要注意的是层与层之间也有非线性函数和Batch Normalization,图中没有画出。下面举例说明AlexNet的网络结构。
例如在图中第一个卷积层中,输入的是227×227的彩色图片,由于彩色图片有RGB三个颜色分量,所以channel数量为3。第一个卷积层有96个11×11×3的卷积核,卷积的步长stride=(4,4)。
根据上一讲的思考题,如果一个M×N的图像和一个m×n的卷积核进行操作,移动步长stride=(P,Q),即在长的方向上每步移动P个像素,在宽这个方向上每步移动Q个像素,请问经过卷积操作后获得的特征图的长H和宽W分别是多少呢?
H = f l o o r ( M − m P ) + 1 H=floor(\frac{M-m}{P})+1 H=floor(PM−m)+1
W = f l o o r ( N − n Q ) + 1 W=floor(\frac{N-n}{Q})+1
深度学习:AlexNet详解与改进

本文介绍了深度学习中的重要里程碑—AlexNet,详细分析了其历史、网络结构,并探讨了ReLu函数、最大池化、随机丢弃、数据扩增及GPU加速等关键改进,这些方法对现代深度神经网络训练有着重要影响。
最低0.47元/天 解锁文章
1183

被折叠的 条评论
为什么被折叠?



