深度学习-激活函数

总结激活函数

从各个博客上扒来然后总结的
sigmoid激活函数
在这里插入图片描述
函数图像
在这里插入图片描述
sigmoid导数
在这里插入图片描述
导数图像
在这里插入图片描述
sigmoid的缺点:
1)输出范围在0~1之间,均值为0.5需要做数据偏移,不方便下一层学习
2)当x很大或很小时,存在导数很小的情况,另外神经网络的主要训练方法是BP算法(反向传播),其基础是导数的链式法则,即多个导数的乘积,而sigmoid的导数最大值为0.25,多个小于等于0.25的数值相乘,运算结果很小,随着网络的加深,梯度反向传播到浅层网络时,基本没法引起参数的扰动,造成梯度消失。

tanh 激活函数
在这里插入图片描述
函数图像
在这里插入图片描述
tanh导数
在这里插入图片描述
导数图像
在这里插入图片描述
tanh通常要优于sigmoid,因为tanh的输出在(-1,1)之间,均值为0,更方便下一层网络的学习,但是如果做二分类,输出层使用sigmoid更好,因为它可以算出某一类的概率。
tanh和sigmoid都有一个缺点,在深层网络中容易出现梯度消失,造成学习无法进行。

Relu(x)激活函数
在这里插入图片描述
在这里插入图片描述
relu(x)的导数
在这里插入图片描述
优点
1)反向传播避免了梯度消失
2)Relu使一部分神经元输出为0,造成了网络的稀疏性(减少了参数间的相互依存关系,缓解了过拟合问题的发生)
3)求导更简单

缺点
1)过于宽广的接受域,在接受叫大数据时输出不稳定(改进有Relu6)
2)输出数据的负数部分,Relu把其置为0,梯度也为0,那么训练过程中负数部分就不会进行参数更新。(改进有leakyRelu)

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值