常见CNN网络创新点

这篇文章主要介绍卷积神经网络1998年到2019年的20多种经典的网络,体会每种网络的前世今身以及包含的深邃思想。算是一个总结性的博客吧。。。


目录

一、1998年:LeNet

二、2012年:AlexNet

三、2013年:ZFNet

四、2014年:亚军——VGGNet

冠军——GoogLeNet

五、2015年:ResNet

六、2016年:DenseNet

七、2017年:SENet


一、1998年:LeNet

1988年,Yann LeCun(深度学习三巨头之一,2019年获得图灵奖)提出了用于手写字符识别的卷积网络模型LeNet5。其原理结构比较清晰,如图所示。当年,美国很多企业都采用了该模型用于识别现实场景中的数字,例如邮政编码、手写数字等,能够达到商用的程度,可见其在AI领域的开创性地位。

在论文中,LeNet5被用于识别MNIST数据集提供的10个数字。MNIST数据集在人工智能领域的作用是非常重要的,是当时Google实验室的Corinna Cortes和纽约大学的Yann LeCun共同建立的手写数字数据库,由60000张训练图片和10000张测试图片组成。该数据集提供的图片像素统一为28×28,图片中字符像素最大为20×20。

创新点:提出卷积神经网络

二、2012年:AlexNet

AlexNet是2012年提出的,当时AlexNet直接将ImageNet数据集的识别错误率从之前的非深度学习方法的28.2%降低到16.4%。AlexNet算是这波AI热潮的引爆点。

创新点:

  • 更深的网络,增强了模型的表示能力。
  • 成功添加了ReLU激活函数作为CNN的激活层,缓解了sigmoid激活函数的梯度消失问题,收敛也更快。
  • 提出了局部响应归一化(Local Response Normalization,LRN),对局部神经元创建竞争机制,抑制反馈较少的神经元,增强模型的泛化能力。
  • 设计并使用了Dropout以随机忽略部分神经元,从而避免出现模型过拟合的问题。
  • 添加了裁剪、旋转等方式增强数据。
  • 其采用了分块训练。当年的GPU显存不够,AlexNet创新地将图像分为上下两块分别训练,然后在全连接层将其合并在一起。这样其除了将模型的神经元进行了并行,还使通信被限制在了某些网络层。
  • 其采用了重叠池化。在LeNet5中,池化层是不重叠的,但在AlexNet中,研究者发现使用重叠的池化更有
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值