深度学习之激活函数——ELU

ELU

指数线性单元(ELU),全称Exponential Linear Units,使用了指数作为激活函数的一部分。

函数表达式

f ( x ) = { α ( e x − 1 ) , x ≤ 0 x , x > 0 f(x)=\begin{cases} \alpha (e^x-1),\quad x\leq 0\\ x, \quad x>0 \end{cases} f(x)={α(ex1),x0x,x>0

函数图像

请添加图片描述

在图像上, x > 0 x>0 x>0部分与ReLU相似,而在 x < 0 x<0 x<0部分与sigmoid/tanh相似

函数特性

ELU激活函数上所有点都是连续且可微的( α = 1 \alpha =1 α=1),所以不存在梯度消失和梯度爆炸的问题。ELU在 x > 0 x>0 x>0部分与ReLU相似,而在 x < 0 x<0 x<0部分与sigmoid/tanh相似,这样就能很好的结合两者的优点。理论上,ELU要好于ReLU,但是实际上,并没有证据表明ELU总是优于ReLU。

优点:
  • 相比于ReLU、sigmoid、tanh激活函数,其训练时间更短、精确度也更高。因为其在原点处函数连续,这样能够加快函数收敛
  • 没有dead relu神经元死亡问题
缺点:
  • 计算速度较慢,因为涉及到非线性的运算,但是其较快的收敛速度会对其进行一定程度上的弥补

的弥补

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值