BP算法公式推导

前提

训练样例:(xk,yk),
神经网络输出:y^k=(y^k1,y^k2,,y^k)其中:y^kj=f(βjθj)
均方误差:

Ek=12j=1(y^kjykj)2

j个输出神经元的输入:
βj=h=1qwhjbh

参数更新方式:
vv+Δv

f(x):
f(x)=11+ex

f(x):
f(x)=(1ex)2(ex)=ex(1+ex)2=f(x)(1f(x))

梯度下降法

举一个非常简单的例子,如求函数f(x)=x2 的最小值。
利用梯度下降的方法解题步骤如下:
1、求梯度, =2x
2、向梯度相反的方向移动 x ,如下xxγ
,其中, γ 为步长。如果步长足够小,则可以保证每一次迭代都在减小,但可能导致收敛太慢,如果步长太大,则不能保证每一次迭代都减少,也不能保证收敛。
3、循环迭代步骤2,直到 x 的值变化到使得f(x)在两次迭代之间的差值足够小,比如0.00000001,也就是说,直到两次迭代计算出来的 基本没有变化,则说明此时 已经达到局部最小值了。
4、此时,输出x ,这个x就是使得函数f(x)最小时的x的取值 。

目标

使得均方误差Ek最小,

推导Δwhj

给定学习率η
按照上面的方法:
求梯度: whj=Ekwhj=Eky^kjy^kjβjβjwhj
其中:

βjwhj=qh=1whjbhwhj=bh

前两项表示为:
Eky^kjy^kjβj=12i=1(y^kiyki)2y^kjy^kjβj=(y^kjykj)y^kj(1y^kj)

定义gj=Eky^kjy^kjβj=y^kj(1y^kj)(ykjy^kj)
负梯度方向:
Δwhj=η=ηEkwhj=ηgibh

推导Δθj

同样对于Δθj
求梯度: θj=Ekwhj=Eky^kjy^kjθj=gj
于是得到

Δθj=ηgj

推导Δvih

ΔvihEky^kjβjbhαh=ηEkvih=12j=1(y^kjykj)2=f(βjθj)=h=1qwhjbh=f(αhγh)=i=1dvihxi

所以得到,
αhvih=xi

bhαh=bh(1bh)

βjbh=whj

根据链式法则剩下的部分就是gj,但是因为Ek中的每一项都包含了vih所以最终的结果就是
Δvih=ηEkvih=ηbh(1bh)xij=1gjwhj


eh=bh(1bh)j=1gjwhj

Δvih=ηehxi

推导Δγh

Δγh=ηeh
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值