深度学习之激活函数——RReLU

随机修正整流线性单元(RReLU),全称Randomized ReLU,是ReLU的延伸版,也是为了解决dead relu神经元坏死现象而提出的一种激活函数。

函数表达式

f(x)={αx,x≤0x,x>0其中α满足U(m,n) f(x)=\begin{cases} \alpha x,\quad x\leq 0\\ x, \quad x>0 \end{cases} \\其中\alpha满足U(m,n) f(x)={αx,x0x,x>0其中α满足U(m,n)

x<0x<0x<0时,函数值为f(x)=αxf(x)=\alpha xf(x)=αx,但是α\alphaα初始是一个随机变量,随后不断进行修正,其取值范围为[m,n][m,n][m,n];当x>0x>0x>0时,函数值为f(x)=xf(x)=xf(x)=x

函数图像

请添加图片描述

如上图,左侧函数在黄色区域的范围内进行选择。

函数特性

优点:
  • 引入了随机因素,可以减少过拟合的风险
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值