这篇文章主要介绍卷积神经网络1998年到2019年的20多种经典的网络,体会每种网络的前世今身以及包含的深邃思想。算是一个总结性的博客吧。。。
目录
一、1998年:LeNet
1988年,Yann LeCun(深度学习三巨头之一,2019年获得图灵奖)提出了用于手写字符识别的卷积网络模型LeNet5。其原理结构比较清晰,如图所示。当年,美国很多企业都采用了该模型用于识别现实场景中的数字,例如邮政编码、手写数字等,能够达到商用的程度,可见其在AI领域的开创性地位。
在论文中,LeNet5被用于识别MNIST数据集提供的10个数字。MNIST数据集在人工智能领域的作用是非常重要的,是当时Google实验室的Corinna Cortes和纽约大学的Yann LeCun共同建立的手写数字数据库,由60000张训练图片和10000张测试图片组成。该数据集提供的图片像素统一为28×28,图片中字符像素最大为20×20。

创新点:提出卷积神经网络
二、2012年:AlexNet
AlexNet是2012年提出的,当时AlexNet直接将ImageNet数据集的识别错误率从之前的非深度学习方法的28.2%降低到16.4%。AlexNet算是这波AI热潮的引爆点。

创新点:
- 更深的网络,增强了模型的表示能力。
- 成功添加了ReLU激活函数作为CNN的激活层,缓解了sigmoid激活函数的梯度消失问题,收敛也更快。
- 提出了局部响应归一化(Local Response Normalization,LRN),对局部神经元创建竞争机制,抑制反馈较少的神经元,增强模型的泛化能力。
- 设计并使用了Dropout以随机忽略部分神经元,从而避免出现模型过拟合的问题。
- 添加了裁剪、旋转等方式增强数据。
- 其采用了分块训练。当年的GPU显存不够,AlexNet创新地将图像分为上下两块分别训练,然后在全连接层将其合并在一起。这样其除了将模型的神经元进行了并行,还使通信被限制在了某些网络层。
- 其采用了重叠池化。在LeNet5中,池化层是不重叠的,但在AlexNet中,研究者发现使用重叠的池化更有

最低0.47元/天 解锁文章
11万+

被折叠的 条评论
为什么被折叠?



