写这篇文章是看了好多文章大家只讲了反向传播的权重计算方式,没有讲到偏置计算,查了一些解释才发现和权重计算类似,在此记录一下。
如下图4-6-4神经网络为例,我们记输入层到隐藏层权重参数和偏置参数为1:wij和bi,隐藏层到输出层的权重参数和偏置参数为2:wij和bi.

如下图所示,每个 隐藏层和输出层的节点是在激活函数计算后才输出,因此我们在反向传播中需要对激活函数也进行求导:

我们记为隐藏层到输出层正向传播激活前的值,
为隐藏层到输出层正向传播激活后的值,
为输入层到隐藏层正向传播激活前的值,
为输入层到隐藏层正向传播激活后的值。
在反向传播中主要应用的原理为梯度下降法,在神经网络中我们使用链式求导来实现。
参数更新是通过输出的损失来更新的,损
深度解析神经网络反向传播中的偏置参数计算

最低0.47元/天 解锁文章
640






