深度学习——激活函数(Sigmoid/ReLU/Softplus/Swish/Maxout)

激活函数在深度学习中至关重要,用于引入非线性。Sigmoid和Tanh虽然连续可导但存在饱和区;ReLU及其变种如Leaky ReLU解决了饱和问题,但可能导致神经元死亡;Softplus是ReLU的平滑版;Swish是自调节门控函数;Maxout通过多个最大值选择实现非线性。这些函数各有优缺点,适用于不同的网络结构和任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

激活函数的作用

       激活函数对于深度学习来说非常的重要,我们假设现在有n个神经元 x 1 , … , x n x_1,\dots,x_n x1,,xn,其参数为 w 1 , … , w n w_1,\dots,w_n w1,,wn,偏置为b。
z = ∑ i = 1 n w i x i + b z = \sum_{i=1}^{n}w_ix_i+b z=i=1nwixi+b
a = f ( z ) a = f(z) a=f(z)其中f为激活函数。

结构
       我们可以发现如果没有激活函数的话,那么神经网络就变成了线性函数的不断嵌套,对于非线性关系学习不好。


激活函数需要的性质
  1. 连续可导的非线性函数,这样可以拟合非线性关系还可以用数值优化求解。
  2. 激活函数及其导数其形式必须简单,这样加快网络的学习。
  3. 激活函数的导数不能太大或者太小,最好稳定在1左右。太大会梯度爆炸,太小会梯度消失。
激活函数的种类
1.Sigmoid型

       常用的Sigmoid型函数有两种,第一个是logistic函数,第二个是tanh函数。这两个函数都是连续可导的,并且导数都不大,所以性质比较好,但是缺点在于他们都是两端饱和的,导数趋近于0。

logistic函数

定义: σ ( x ) = 1 1 + e x p ( − x ) \sigma(x)=\dfrac{1}{1+exp(-x)} σ(x)=1+exp(x)1

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值