深度学习基础之激活函数

激活函数在神经网络中起到引入非线性因素的作用,帮助解决复杂问题。本文介绍了包括Sigmoid、tanh、ReLU、Leaky ReLU、PReLU、RReLU、ELU、SoftPlus和softmax在内的常见激活函数,探讨了它们的性质、优缺点及其适用场景。ReLU因其快速收敛和防止梯度消失而广泛使用,但存在神经元死亡问题。ELU则在保持ReLU优点的同时,进一步提高了收敛速度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >



1.激活函数的作用

激活函数是对输入做的一种非线性的转换,其目的是把当前特征空间通过一定的映射转换到另一个空间,让数据能够更好的被分类。

在下图中:在这里插入图片描述
左图假设数据是线性可分的,只需要一条直线就已经能够对样本进行很好地分类。然而,在实际中数据如右图,简单的一条直线不能够对样本进行很好地分类。因此,需要引入一些非线性的因素,来更好地解决复杂的问题。而激活函数恰好能引入非线性因素,它使得神经网络能够更好地解决较为复杂的问题。

所以,引入的激活函数往往是非线性的,使用非线性激活函数 f ( x ) f(x) f(x) ,以便使网络更加强大,增加它的能力,使它可以学习复杂的事物,复杂的表单数据,以及表示输入输出之间非线性的复杂的任意函数映射。使用非线性激活函数,能够从输入输出之间生成非线性映射。

2.激活函数的相关概念

在ICML2016的一篇论文Noisy Activation Functions中,作者将激活函数定义为一个几乎处处可微的 h : R → R h : R → R h:RR

在这里插入图片描述
还有以下的一些概念:

a.饱和

当一个激活函数 h ( x ) h(x) h(x)满足
lim ⁡ n → + ∞ h ′ ( x ) = 0 \lim_{n\to +\infty} h'(x)=0 n+limh(x)=0
时,称之为右饱和

当一个激活函数 h ( x ) h(x) h(x)满足
lim ⁡ n → − ∞ h ′ ( x ) = 0 \lim_{n\to -\infty} h'(x)=0 nlimh(x)=0
时,称之为左饱和

当一个激活函数,既满足左饱和又满足又饱和时,我们称之为饱和

b.硬饱和与软饱和

对任意的 x x x,如果存在常数 c c c,当 x > c x > c x>c时恒有 h ’ ( x ) = 0 h’(x)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值