深度学习----经典卷积网络总结(1)

本文总结了卷积网络的发展历程,包括LeNet-5、AlexNet、VGGNet、GoogLeNet和ResNet。LeNet-5在1998年用于手写数字识别,AlexNet引入了dropout和数据增强防止过拟合,VGGNet通过连续的小卷积核增加深度,GoogLeNet的Inception Module捕捉多尺度特征,而ResNet的残差学习框架解决了深度网络训练难题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

卷积网络总结(1)


在进行详细介绍之前先上个图:

下面图片参照:http://blog.youkuaiyun.com/cyh_24/article/details/51440344

这张图很好的说明了卷积网络的大致发展脉络,接下来我们对这些网络进行介绍,除此之外我们还将对DenseNet和EfficientNet进行介绍(其中一些缓解过拟合的操作,如Dropout、LRN等我们会再写一篇博客中进行总结介绍)

 

1、1998年LeNet-5

LeNet-5网络广泛用于手写字体识别(MNIST),它的结构比较简单,如下:

该网络内部的一些操作与当前使用的大部分网络存在不小的差别。第一点,由于该结构的卷积层没有padding操作,所以卷积层也会导致其分辨率的下降;第二点,池化操作稍微复杂一点,该池化在计算完输入的平均值之后,还会再乘以一个可学习的系数另外再加上一个可学习的偏置项;第三点,C3卷积层中的大部分神经元并不是与S2层的6张图都相连,而是只与其中的三张或四张特征图相连;第四点,一般的输出层都是计算输入和权重的相乘,而该网络的输出却是输入和权重之间欧式距离的平方,每一个输出衡量了图像属于某一类具体数字的程度。

2、2012年AlexNet(参数量大大增加)

        跟LeNet-5网络有些相似,但是更大更深一些。该网络的一大特色就是直接的将卷积层堆叠到一起,而不是卷积层之后跟着池化层。结构如下:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值