激活函数

在神经网络中,上层的输出成为下层的输入之前,先经过一层激活函数,更符合自然界的神经网络特性,过小的刺激就不用在继续传播下去了;
而且,若不用激活函数,无论神经网络有多少层,输出都是输入的线性组合,引入非线性函数作为激活函数,可以使得学习能力更强

sigmoid

非常常用的激活函数
在这里插入图片描述
函数图形为S型
在这里插入图片描述
将输入压缩到0-1范围内
不过由于其导数的特性,容易导致梯度爆炸或消失,尤其是梯度消失

tanh


也是S型的
在这里插入图片描述
与sigmoid的区别是tanh将数据压缩到-1~1的范围内
还是会有梯度消失的问题

Relu

在这里插入图片描述
函数图形是这样的
在这里插入图片描述
Relu有几个优点:

  • 收敛速度快
  • 解决了gradient vanishig的问题
  • 计算速度快
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值