写这篇文章是看了好多文章大家只讲了反向传播的权重计算方式,没有讲到偏置计算,查了一些解释才发现和权重计算类似,在此记录一下。
如下图4-6-4神经网络为例,我们记输入层到隐藏层权重参数和偏置参数为1:wij和bi,隐藏层到输出层的权重参数和偏置参数为2:wij和bi.
如下图所示,每个 隐藏层和输出层的节点是在激活函数计算后才输出,因此我们在反向传播中需要对激活函数也进行求导:
我们记为隐藏层到输出层正向传播激活前的值,
为隐藏层到输出层正向传播激活后的值,
为输入层到隐藏层正向传播激活前的值,
为输入层到隐藏层正向传播激活后的值。
在反向传播中主要应用的原理为梯度下降法,在神经网