常见激活函数对比

激活函数是神经网络的重要组成部分,提供非线性建模能力。本文对比了sigmoid、tanh、ReLU、LReLU、PReLU、ELU和Swish等激活函数,分析了它们的性质、优缺点,如sigmoid的梯度消失问题,ReLU的快速收敛和死ReLU问题,以及ELU和Swish的鲁棒性。这些函数在不同的场景下有不同的表现,选择合适的激活函数对于模型的训练和性能至关重要。

激活函数的作用

激活函数的主要功能是为神经网络非线性能力 ,去掉激活函数层,神经网络仅剩下线性函数,多层线性函数的拟合还是线性的,无法更好的建模生活中的大多数非线性问题。

线性激活函数(不是重点)
非线性激活函数(sigmod,tanh,relu,lrelu,Prelu,swish)

考量:

  • 可微性:因为优化方法是基于梯度的,
  • 单调性:当激活函数是单调的时候,能够保证单层网络是凸函数
    输出值的范围:激活函数的输出值的范围可以有限也可以无限。当输出值是有限的时候,基于梯度的优化方法会更加稳定,因为特征的表示受有限权值的影响更加显著;当输出值是无限的时候,模型的训练会更加高效,不过在这种情况下,一般需要更小的learning rate

非线性激活函数

sigmod

公式
f ( x ) = 1 1 + e − x f ′ ( x ) = f ( x ) ∗ ( 1 − f ( x ) ) f(x) = \frac{1}{1+e^{-x}} \\ f^{'}(x) = f(x)*(1-f(x)) f(x)=1+ex1f(x)=f(x)(1

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值