我们总听到说梯度消失梯度消失,究竟是什么原因呢。
梯度消失
上图是我们的简单3隐层神经网络,我们采取sigmod函数作为每个神经元的激活函数。即,每层输入为:
zi=ωioi−1+b1
输出为:
oi=σ(zi)
则根据求导的链式法则有:
∂C∂b1=∂C∂o4
我们总听到说梯度消失梯度消失,究竟是什么原因呢。
上图是我们的简单3隐层神经网络,我们采取sigmod函数作为每个神经元的激活函数。即,每层输入为: