AlexNet网络具体介绍

AlexNet是深度学习领域的里程碑,它引入了ReLU激活函数、LRN、Dropout、重叠池化和多GPU训练等创新。ReLU提高了计算效率和训练速度,LRN增强了特征对比,Dropout避免过拟合,重叠池化提升预测精度,多GPU训练加速了大型网络的训练过程。AlexNet由5层卷积和3层全连接组成,对ImageNet数据集的分类表现优秀。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、AlexNet 网络的创新点

AlexNet是发表在《ImageNet Classification with Deep Convolutional Neural Networks》使用了LSVRC-2010竞赛中的数据集并取它的子集,对1000个不同的类进行分类,并取得了历史性的提高。

1.1、使用了ReLU作为激活函数

在这里插入图片描述
相比sigmoid,tanh,ReLu有一下优点:

  • 1 计算开销少,论文中提到非饱和非线性变换(Relu)比饱和非线性变换(Sigmoid、tanh)梯度计算的要更快,(饱和是激活函数有界,而非饱和是指无界)
  • 2 训练收敛速度快,Relu会让一部分神经元的输出为0,这样就照成了网络的稀疏性,减少了参数。

激活函数要使用非线性变换,而Relu是一个线性的分段函数,似乎有问题。可以指出,对于每一个样本ReLU做的是不同线性变换,而对整个样本集而言着可以理解为非线性的。

简单来说,不同训练样本中的同样的特征,在经过神经网络学习时,流经的神经元是不一样的(激活函数值为0的神经元不会被激活)。这样,最终的输出实际上是输入样本的非线性变换。

1.2 LRN(局部相应归一化)

  1. 可以方便后面数据的处理
  2. 可以加快程序的收敛
  3. 保证输出数据中数值小的值不被吞食
    公式:
    b x , y i = a x , y i / ( k + α ∑ j = m a x ( 0 , i − n / 2 ) m i n ( N − 1 , i + n / 2 ) ( a x , y j ) 2 ) β b_{x,y}^{i}=a_{x,y}^{i}/(k+\alpha\sum_{j=max(0,i-n/2)}^{min(N-1,i+n/2)}(a_{x,y}^{j})^2)^\beta b
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值