【深度学习论文】Alexnet 论文学习网络讲解

本文详细介绍了AlexNet网络架构,包括其八大模块的组成及功能。特别强调了卷积模块用于特征提取,全连接层用于分类。此外,还探讨了ReLU激活函数的优势、Dropout技术的应用及其对泛化能力的影响。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Alexnet

1 网络架构

整个alexnet网络的架构如下图所示:
这里写图片描述
注意:输入层的大小其实是227*227

8大模块

整个网络可以分成8个大模块,其中前5模块四卷积模块,用于提取图片特征,后3个模块是全链接层,用于图像分类!
这里写图片描述

前2个模块

这里写图片描述

34模块

这里写图片描述

5模块

这里写图片描述

6模块

这里写图片描述

78模块

这里写图片描述

2 激活函数

Hinton提出使用Relu激活函数效果更好!
这里写图片描述

从ReLU提出之后相继又出现很多新的激活函数,如PReLU,Leaky-ReLY,Maxout等。

3 Dropout

这里写图片描述

可以利用78模块集成学习的思想来理解Dropout,全连接中训练多个若分类器,在识别阶段在来构成一个强分类器。Dropout比Without Dropout在训练阶段的准确率要低,但测试阶段的准确率要高,范化能力更强。可以利用集成学习的思想来理解Dropout技术。

4 多GPU通信

这里写图片描述

5 LRN

这里写图片描述

6 网络细节和特点

这里写图片描述

上图右侧是论文中比较创新的地方,可以看出Alexnet是人工智能第三次爆发的开山之作!

1.标准梯度下降法

标准梯度下降先计算所有样本汇总误差,然后根据误差来更新权值

2.随机梯度下降法

随机梯度下降法随机抽取一个样本来计算误差,然后更新权值。比较容易陷入局部最优解。

3.批量梯度下降法

批量梯度下降算法是一种折中的方案,从总样本中选取一个批次(比如一共有10000个样本,随机选取100个样本作为一个batch),然后再计算这个batch的总误差,根据总误差来更新权值。

参考文献:
[alexnet]:ImageNet Classification with Deep Convolutional Neural Networks

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值