激活函数学习笔记

  1. Sigmoid:梯度消失、指数计算复杂运行慢、输出不是以0为中心,梯度平滑便于求导
  2. tanh:以0为中心,其他与sigmoid相似
  3. ReLu:transformer常用,解决了梯度消失问题、计算复杂度低,存在神经元死亡问题和梯度不连续问题
  4. LeakyReLu:解决了ReLu神经元死亡的问题
  5. GLu:门控线性单元,两个线性变换,其中一个经过sigmoid输出,通过哈达玛积控制另一个线性变化,具有信息选择能力
  6. GeLu:高斯误差线性单元,x*P(X>=x),使用高斯分布的累计函数进行dropout
  7. Swish:x*σ(βx),使用sigmoid进行dropout,β等于1时是SiLu,极大时区域ReLu,等于0是x,梯度连续平滑,非单调性增强了学习能力
  8. SiLu:β等于1时的Swish
  9. SwiGLu:将GLu的σ函数替换为Swish函数,优势在于平滑梯度、门控特性、梯度稳定性和可学习参数
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值