Activation Functions in Neural Networks

激活函数在神经网络中引入非线性,使其成为通用函数近似器。Sigmoid和Tanh存在梯度消失问题,而ReLU解决了这一问题但可能导致死神经元。Leaky ReLU和Maxout是ReLU的改进版,Maxout虽无ReLU的缺点,但参数数量增加。结论是隐藏层可使用ReLU,注意学习率和死单元比例,避免使用sigmoid。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

This article is inspired by 这里 and 这里.

- 激活函数的主要意义是为NN加入非线性的元素。在神经学上模仿的是一个神经元是否有效。

A Neural Network without Activation function would simply be a Linear regression Model. Neural-Networks are considered Universal Function ApproximatorsIt means that they can compute and learn any function at all. Almost any process we can think of can be represented as a functional computation in Neural Networks.

- 激活函数must be 'differentiable' for gradient descent.

- 一些常见的Function

  1.  Sigmoid (deprecated). Output in
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值