This article is inspired by 这里 and 这里.
- 激活函数的主要意义是为NN加入非线性的元素。在神经学上模仿的是一个神经元是否有效。
A Neural Network without Activation function would simply be a Linear regression Model. Neural-Networks are considered Universal Function Approximators. It means that they can compute and learn any function at all. Almost any process we can think of can be represented as a functional computation in Neural Networks.
- 激活函数must be 'differentiable' for gradient descent.
- 一些常见的Function

- Sigmo

激活函数在神经网络中引入非线性,使其成为通用函数近似器。Sigmoid和Tanh存在梯度消失问题,而ReLU解决了这一问题但可能导致死神经元。Leaky ReLU和Maxout是ReLU的改进版,Maxout虽无ReLU的缺点,但参数数量增加。结论是隐藏层可使用ReLU,注意学习率和死单元比例,避免使用sigmoid。
最低0.47元/天 解锁文章
482

被折叠的 条评论
为什么被折叠?



