四种激活函数(Relu Linear Sigmoid Tanh)

整流器

https://en.wikipedia.org/wiki/Rectifier_(neural_networks)

Rectifier (neural networks)

维基百科,自由的百科全书
整流器(蓝色)和softplus(绿色)的曲线在 x  = 0附近起作用

人工神经网络的上下文中,整流器是定义为的激活函数

{\ displaystyle f(x)= \ max(0,x),}{\ displaystyle f(x)= \ max(0,x),}

其中x是到神经元的输入。这也称为斜坡函数,并且类似于电气工程中的半波整流。这种激活函数首先由Hahnloser等人引入动力网络。在2000年的论文在自然[1]具有强大的生物动机和数学理由。[2]它被广泛应用于卷积网络[3],比广泛使用的逻辑sigmoid(灵感来自概率论 ;见逻辑回归)和其更实用的[4]对应,双曲正切整流器是,到2015年,最深入的神经网络最流行的激活功能。[5]

使用整流器的单元也称为整流线性单元ReLU)。[6]

整流器的平滑近似是分析函数

{\ displaystyle f(x)= \ ln(1 + e ^ {x}),}{\ displaystyle f(x)= \ ln(1 + e ^ {x}),}

这称为softplus功能。[7] softplus的派生{\ displaystyle f'(x)= e ^ {x} /(e ^ {x} +1)= 1 /(1 + e ^ { - x})}{\ displaystyle f'(x)= e ^ {x} /(e ^ {x} +1)= 1 /(1 + e ^ { -  x})},即对数函数

整流线性单位在计算机视觉[3]语音识别[8] [9]中应用深层神经网络

逻辑函数 https://en.wikipedia.org/wiki/Logistic_function#In_ecology:_modeling_population_growth

维基百科,自由的百科全书
有关循环关系,请参见 逻辑图
标准逻辑sigmoid函数  {\ displaystyle k = 1,x_ {0} = 0}{\ displaystyle k = 1,x_ {0} = 0}

对数函数或对数曲线是常见的“S”形(S形曲线),其等式:

{\ displaystyle f(x)= {\ frac {L} {1+ \ mathrm {e} ^ { - k(x-x_ {0})}}}}f(x)= {\ frac {L} {1 + {\ mathrm e} ^ {​{ -  k(x-x_ {0})}}}}

哪里

  • e = 自然对数底(也称为欧拉数),
  • 0 = Sigmoid中点的x值,
  • L =曲线的最大值,和
  • k =曲线的陡度。[1]

对于从-∞到+∞ 的实数范围内的x的值,获得右侧所示的S曲线(随着x接近+∞,f接近L的曲线图,并且当x接近-∞时接近零)。

该功能是在1844年至1845年名为皮埃尔·弗朗索瓦费尔哈斯,谁在与人口增长研究它。[2]生长的初始阶段大约是指数的 ; 然后,随着饱和开始,生长减慢,并且在成熟时,生长停止。

物流功能发现在一系列领域,包括应用人工神经网络生物学(特别是生态学),生物数学化学人口学经济学地球科学数学心理学概率社会学政治学语言学统计


Tanh-sinh正交

ReLUSigmoidTanh都是神经网络中常用的激活函数,它们的作用是在输入信号上引入非线性转换,以便模型能够学习更复杂的模式。 1. **ReLU (Rectified Linear Unit)**: ReLU是最简单也最常用的一种激活函数。它对输入信号x取最大值0和原值x之间的差,数学表示为f(x) = max(0, x)ReLU的优点在于计算速度快,而且在大部分情况下有助于解决梯度消失问题,但如果输入是负数,其导数会变为0,导致部分神经元“死亡”。 2. **Sigmoid**: Sigmoid函数是一种S形曲线,将输入映射到(0,1)之间,通常用于二分类问题的概率输出。它的公式是f(x) = 1 / (1 + e^(-x))Sigmoid的问题在于当输入很大或很小时,梯度接近于0,这被称为“vanishing gradient”问题,可能导致训练过程变慢。 3. **Tanh (Hyperbolic Tangent)**: 类似于SigmoidTanh也是S形曲线,但是输出范围是从-1到1。其公式是f(x) = (e^x - e^(-x)) / (e^x + e^(-x))Tanh的中心点是0,因此不会像Sigmoid那样有极端的边界值问题,但它同样存在梯度消失的情况。 使用编程语言如Python和NumPy可以直观地操作这些函数,例如: ```python import numpy as np def relu(x): return np.maximum(0, x) def sigmoid(x): return 1 / (1 + np.exp(-x)) def tanh(x): return np.tanh(x) ``` 你可以通过这些函数对各种数值进行运算,观察它们的行为,并在深度学习的神经网络代码中应用它们。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值