七、激活函数的使用
通过之前的学习我们都了解到了激活函数的作用,现在我们将会讲解一下激活函数在不同的神经网络中的应用:
1、首先是sigmoid 函数:
a=11+e−z
它的图像可以表示为:
但是这个激活函数多使用在二分分类输出的神经网络,因为需要寻找1和0值,所以在一般的神经网络中我们很少使用这个激活函数。对应的导数为:
g′(z)=a(1−a)
这为后面的计算节省了很多时间。
2、然后是Tanh函数:
a=ez−e−zez+e−z
它的图像是:
这个激活函数相较于上面的更加适用于现在常用的神经网络中,它也称为双切正切函数,取值范围为[-1,1]。tanh在特征相差明显时的效果会很好,在循环过程中会不断扩大特征效果。与 sigmoid 的区别是,tanh 的均值是0,因此实际应用中 tanh 会比 sigmoid 更好,然而,tanh一样具有软饱和性,从而造成梯度消失。它的导数为:
g′(z)=1−a2
3、接下来是ReLU函数:
a=max(0,z)
本文详细介绍了三种常见的激活函数:sigmoid函数、Tanh函数和ReLU函数。分别阐述了它们的特点、应用场景及导数计算方法,并解释了为何需要使用非线性激活函数。

被折叠的 条评论
为什么被折叠?



