TensorFlow中的激活函数

本文深入解析了常见的激活函数,包括sigmoid、relu及其变种LeakyReLU,还有tanh函数。探讨了它们的特点、优缺点及应用场景,特别强调了relu函数解决梯度消失问题的优势。

点击这里你可以看到官网中提供的激活函数
首先介绍几种常见的激活函数
sigmoid函数
也叫Logistic函数,它可以将一个实数映射到(0,1)的区间。
在这里插入图片描述
根据求导σ '(x)=σ(x)(1-σ(x)),在x=0时梯度最大。缺点:在误差反向传播时,容易造成梯度消失。
在这里插入图片描述
Relu函数
relu函数又称线性修正单元,一般用于回归中输出层神经元。
在这里插入图片描述
形状如上,公式:f(x)=max(0,x)
参考:https://blog.youkuaiyun.com/Leo_Xu06/article/details/53708647
relu函数能够解决sigmoid函数在反向传播时x>0“梯度消失问题”,还能加快收敛速度。但是在训练时容易x<0处造成梯度为0,权重无法更新的情况。如果发生这种情况,那么流经神经元的梯度从这一点开始将永远是0。。由此我们引进relu函数变种,给x<0时有部分梯度
Leaky ReLU
在这里插入图片描述
称为带泄露线性整流函数,常数λ属于(0,1)。参考https://blog.youkuaiyun.com/qq_23304241/article/details/80300149
tanh函数
在这里插入图片描述
曲线图形如下
在这里插入图片描述
最后,如何在实际的神经网络中使用激活函数,查看博客TensorFlow实现深层神经网络
参考一些不错的文章
https://blog.youkuaiyun.com/weixin_41417982/article/details/81437088

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值