深度学习之激活函数

1.0 sigmoid激活函数

函数表达式:f(x) = 1 / (1 + exp(-x))
导数表达式:g(x) = f(x)*(1-f(x))
函数图像:

在这里插入图片描述特点:
1)反向传播算法求解梯度时要进行链式求导,即各个偏导数相乘。由sigmoid导数图像可以看出,当偏导数取值在两边接近0时,连乘得结果会导致所得结果无限接近0,即造成梯度消失现象。
2)幂运算复杂,训练时间长
3)输出非0均值,收敛慢

tensorflow语法:
tf.nn.sigmoid(x)

2.0 Tanh函数

函数表达式:f(x) = 1 - exp(-2x) / (1 + exp(-2x))
导数表达式:g(x) = 1 - f(x)*f(x)
函数图像:
在这里插入图片描述
特点:
1)输出是0均值
2)易造成梯度消失
3)幂运算复杂,训练时间长

tensorflow语法:
tf.math.tanh(x)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值