9、深度学习基础与应用解析

深度学习基础与应用解析

1. 改进的激活函数

训练深度网络困难的主要原因之一是消失梯度问题。以使用反向传播训练具有多个隐藏层且每层采用逻辑Sigmoid激活函数的常规多层感知器(MLP)为例,来理解消失梯度问题。

1.1 Sigmoid函数的问题

Sigmoid函数计算公式为 $\sigma(x) = \frac{1}{1 + e^{-x}}$ 。消失梯度问题主要体现在以下两个方面:
- 前向传播 :第一个Sigmoid层的输出落在(0, 1)范围内,随着层数增加,激活值会被“压缩”在一个狭窄范围,无论输入值如何,都会收敛到约0.66。例如,输入值为2时,$\sigma(2) = 0.881$,$\sigma(\sigma(2)) = 0.71$,$\sigma(\sigma(\sigma(2))) = 0.67$ ,这会抹去前层的信息。
- 反向传播 :Sigmoid函数的导数在以0为中心的非常狭窄区间内有显著值,在其他情况下趋近于0。在多层网络中,导数传播到网络的前层时很可能趋近于0,导致无法将误差传播到这些层,也就无法有效更新其权重。

1.2 ReLU激活函数

ReLU激活函数能有效解决上述两个问题,其图像和导数如下:
ReLU activation

ReLU具有

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值