softmax: 在多分类中常用的激活函数,是基于逻辑回归的。
Softplus:softplus(x)=log(1+e^x),近似生物神经激活函数,最近出现的。
Relu:近似生物神经激活函数,最近出现的。
tanh:双曲正切激活函数,也是很常用的。
sigmoid:S型曲线激活函数,最常用的。
hard_sigmoid:基于S型激活函数。
linear:线性激活函数,最简单的。
深度学习/神经神经网络常用激活函数总结
最新推荐文章于 2024-04-27 20:44:16 发布
本文介绍了在神经网络中常用的几种激活函数,包括softmax、softplus、ReLU、tanh、sigmoid及hard_sigmoid等,并简要说明了它们的特点和应用场景。
9万+

被折叠的 条评论
为什么被折叠?



