机器学习基础 - [第6章:神经网络参数的反向传播算法](2)后向传播算法

本文详细介绍了神经网络中反向传播算法的梯度计算过程。首先,通过前向传播计算网络的激活值和误差项,然后利用链式法则计算代价函数对各个参数的偏导数。在训练集上,将所有样本的偏导数累加并考虑正则化项,最后用这些偏导数更新参数。后向传播算法是优化神经网络权重的关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、梯度计算

在最小化神经网络的代价函数时,我们可以采用之前的提到的任意一种优化算法,比如梯度下降。而使用这些优化算法最重要的就是计算代价函数对于各个参数的偏导项∂J(Θ)∂Θij(l)\frac{\partial J(\Theta)}{\partial{\Theta^{(l)}_{ij}}}Θij(l)J(Θ)。接下来我们看看后向传播算法是怎么计算这些偏导项的。
(1)给定一个训练样本(x,y)(x,y)(xy),然后喂入神经网络进行前向传播:
x=a(1)x=a^{(1)}x=a(1)
z(2)=Θ(1)a(1)z^{(2)}=\Theta^{(1)}a^{(1)}z(2)=Θ(1)a(1)
a(2)=g(z(2))a^{(2)}=g(z^{(2)})a(2)=g(z(2))
z(3)=Θ(2)a(2)z^{(3)}=\Theta^{(2)}a^{(2)}z(3)=Θ(2)a(2)
a(3)=g(z(3))a^{(3)}=g(z^{(3)})a(3)=g(z(3))
z(4)=Θ(3)a(3)z^{(4)}=\Theta^{(3)}a^{(3)}z(4)=Θ(3)a(3)
a(4)=g(z(4))a^{(4)}=g(z^{(4)})

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Albert_YuHan

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值