0. 激活函数
上图为wiki上的定义:激活函数定义了每个节点(神经元)的输出和输入关系的函数。
下表:常用激活函数
|
编号
|
函数
|
公式
|
|---|---|---|
|
1)
|
sigmoid(x)
|
φ(x)=11−e −x
|
|
2)
|
softmax(x)
|
φ(x)=ezj∑Kk=1ezk
|
|
3)
|
tanh(x)
|
φ(x)=tanh(x)
|
|
4)
|
Scaledtanh([scaleIN,scaleOUT])
|
φ(x)=tanh(α∗x)∗β
|
|
5)
|
ReLU
|
φ(x)=max(0,x)
|
|
6)
|
LeakyReLU
|
f(x)={xifx>00.1xotherwise
|
|
7)
|
VaryLeakyReLU
|
a=13
|
|
8)
|
ParametricReLU
|
f(x)={xifx>0axotherwise
|
|
9)
|
RandomizedReLU
|
f(x)=max(0,x+Y),withY∼N(0,σ(x))
|
|
10)
|
Maxout
|
ifa<0,f(x)=max(x,ax)
|
|
11)
|
elu(x)
|
φ(x)=(x>0)?x:ex−1
|
|
12)
|
softplus(x)
|
φ(x)=log(1+ex)
|
|
13)
|
linear(x)
|
φ(x)=x
|
本文详细介绍了13种常用的激活函数,包括sigmoid、softmax、tanh、ReLU及其变种等,并给出了每种函数的数学表达式。这些激活函数被广泛应用于神经网络中,用于决定神经元是否被激活。
2236

被折叠的 条评论
为什么被折叠?



