深度学习中的激活函数总结

部署运行你感兴趣的模型镜像

激活函数饱和问题

一个激活函数h(n)h(n)h(n),当n趋近于正无穷,激活函数的导数趋近于0,称之为右饱和;当n趋近于负无穷,激活函数的导数趋近于0,称之为左饱和。
当一个函数既满足左饱和又满足右饱和的时候我们称之为饱和。
不满足上述两个条件的,称为不饱和激活函数。
常见的激活函数,依照饱和或不饱和划分如下:
饱和激活函数:

  • sigmoid
  • tanh

不饱和激活函数:

  • ReLU
  • Leaky ReLU
  • PReLU
  • Swish
  • Mish

常用激活函数

sigmoid

g(z)=11+e−z g(z) = \frac{1}{1+e^{-z}} g(z)=1+ez1
在这里插入图片描述
g′(z)=(11+e−z)′=e−z(1+e−z)2=g(z)(1−g(z)) g'(z) = (\frac{1}{1+e^{-z}})'=\frac{e^{-z}}{(1+e^{-z})^2}=g(z)(1-g(z)) g(z)=(1+ez1)=(1+ez)2ez=g(z)(1g(z))
sigmoid函数的问题在于当Z值非常大或者非常小的时候,会导致其导数趋近于零,也就是权重的梯度趋近于零,即梯度消失。

tanh

tanh相较于sigmoid函数要常见一些,该函数是将取值为 (−∞,+∞) 的数映射到 (−1,1) 之间。
在这里插入图片描述
g(z)=ez−e−zez+e−z g(z) = \frac{e^{z}-e^{-z}}{e^{z}+e^{-z}} g(z)=ez+ezezez
g′(z)=(ez−e−zez+e−z)′=4(ez+e−z)2=1−g(z)2 g'(z) = (\frac{e^{z}-e^{-z}}{e^{z}+e^{-z}})'=\frac{4}{(e^{z}+e^{-z})^2}=1-g(z)^2 g(z)=(ez+ezezez)=(ez+ez)24=1g(z)2
tanh函数的缺点同sigmoid函数的第一个缺点一样,当 z 很大或很小时,g′(z) 接近于 0 ,会导致梯度很小,权重更新非常缓慢,即梯度消失问题。

ReLU

在这里插入图片描述
g(z)={z,if:z>0z,if:z<0 g(z) =\left\{ \begin{aligned} z , if :z>0 \\ z , if : z<0 \end{aligned} \right. g(z)={z,if:z>0z,if:z<0
g′(z)={1,if:z>00,if:z<0 g'(z) =\left\{ \begin{aligned} 1 , if :z>0 \\ 0 , if : z<0 \end{aligned} \right. g(z)={1,if:z>00,if:z<0
ReLU函数的优点:

  • 在输入为正数的时候(对于大多数输入 z 空间来说),不存在梯度消失问题。
  • 计算速度要快很多。ReLU函数只有线性关系,不管是前向传播还是反向传播,都比sigmod和tanh要快很多。(sigmod和tanh要计算指数,计算速度会比较慢)

ReLU函数的缺点:

  • 当输入为负时,梯度为0,会产生梯度消失问题。

Leaky ReLU

它是一种对ReLU函数改进的函数,又称为PReLU函数。
在这里插入图片描述
g(z)={z,if:z>0az,if:z<0 g(z) =\left\{ \begin{aligned} z , if :z>0 \\ az , if : z<0 \end{aligned} \right. g(z)={z,if:z>0az,if:z<0
g′(z)={1,if:z>0a,if:z<0 g'(z) =\left\{ \begin{aligned} 1 , if :z>0 \\ a , if : z<0 \end{aligned} \right. g(z)={1,if:z>0a,if:z<0
Leaky ReLU函数解决了ReLU函数在输入为负的情况下产生的梯度消失问题。

Swish

Swish 在深层模型上的效果优于 ReLU。可以看做是介于线性函数与ReLU函数之间的平滑函数.
在这里插入图片描述
Swish与ReLU,PReLU最大的区别在于,有下界,平滑,非单调。

Mish

在这里插入图片描述
Mish与Swish非常相似,同样具备有下界,平滑,非单调的特点。

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.9

TensorFlow-v2.9

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值