BP神经网络

这篇博客探讨了使用Sigmoid激活函数的BP神经网络。内容涉及输入层、隐含层和输出层的设置,以及误差函数的定义。重点在于详细阐述了权值和偏置的更新公式,这些公式是神经网络训练过程中的关键步骤,用于逐步优化网络的预测能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

BP神经网络

本次推导采用Sigmoid函数作为激活函数,记作:
f ( x ) = 1 1 + e − x f(x)=\frac{1}{1+e^{-x}} f(x)=1+ex1
做以下设定:

输入层有n个神经元,输入变量为:
x i = ( x 1 , x 2 , x 3 . . . x i ) i = 1 , 2 , 3... n x_i=(x_1,x_2,x_3...x_i)\quad i=1,2,3...n xi=(x1,x2,x3...xi)i=1,2,3...n
隐含层有p个神经元,输出变量为:
h j = ( h 1 , h 2 , h 3 . . . , h j ) j = 1 , 2 , 3... , q h_j=(h_1,h_2,h_3...,h_j)\quad j=1,2,3...,q hj=(h1,h2,h3...,hj)j=1,2,3...,q
输出层有q个神经元,输出结果为:
y k = ( y 1 , y 2 , y 3 , . . . y k ) = f ( ∑ j = 1 p h j w j k + b k ) k = 1 , 2 , 3... q y_k=(y_1,y_2,y_3,...y_k)=f(\sum_{j=1}^{p}h_jw_jk+b_k)\quad k=1,2,3...q yk=(y1,y2,y3,...yk)=f(j=1phjwjk+bk)k=1,2,3...q
期望结果为
d k = ( d 1 , d 2 , d 3 . . . d k ) d_k=(d_1,d_2,d_3...d_k) dk=(d1,d2,d3...dk)
误差函数为:

E = ∑ 1 k ( d k − y k ) 2 E=\sum_{1}^{k}(d_k-y_k)^2 E=1k(dkyk)2
则有

权值更新公式为:
{ w j k = w j k + η ( d k − y k ) ( 1 − y k ) y k h j w i j = w i j + η y k x i h j ( 1 − y k ) ( 1 − h j ) ∑ k = 1 q ( d k − y k ) \begin{cases} \begin{aligned} &w_{jk}=w_{jk}+\eta(d_k-y_k)(1-y_k)y_kh_j\\ &w_{ij}=w{ij}+\eta y_kx_ih_j(1-y_k)(1-h_j) \sum_{k=1}^q(d_k-y_k) \end{aligned} \end{cases} wjk=wjk+η(dkyk)(1yk)ykhjwij=wij+ηykxihj(1yk)(1hj)k=1q(dkyk)
偏置更新公式为:
{ b k = b k + η y k ( d k − y k ) a j = a j + η y k w j k h j ( 1 − y k ) ∑ i = 1 q ( d k − y k ) \begin{cases} \begin{aligned} &b_k=b_k+\eta y_k(d_k-y_k)\\ &a_j=a_j+\eta y_kw_{jk}h_j(1-y_k)\sum_{i=1}^q(d_k-y_k) \end{aligned} \end{cases} bk=bk+ηyk(dkyk)aj=aj+ηykwjkhj(1yk)i=1q(dkyk)
其中,η为学习速率,输入层与隐含层的偏置和权值为ajwij,隐含层与输出层的偏置和权值为bkwjk

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值