GELU 激活函数

GELU的全称是GAUSSIAN ERROR LINEAR UNIT

与Sigmoids相比,像ReLU,ELU和PReLU这样的激活可以使神经网络更快更好地收敛。

此外,Dropout通过将一些激活数乘以0来规范化模型。

以上两种方法共同决定了神经元的输出。但是,两者彼此独立工作。GELU旨在将它们结合起来。

另外,称为Zoneout的新RNN正则化器将输入随机乘以1

我们希望通过将输入乘以0或1并确定性地获得(激活函数的)输出值来合并所有3个功能。

 

我们选择这种分布是因为神经元的输入遵循正态分布尤其是在批归一化之后

但是任何激活函数的输出都应该是确定性的,而不是随机的。因此,我们找到了转换的期望值。

由于Φ(x)是高斯分布的累积分布,并且通常使用误差函数进行计算,因此我们将高斯误差线性单位(GELU)定义为:

 

 

 

 

 

 

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值