机器学习:BP神经网络重要知识点和笔记

这篇博客适合机器学习初学者,详细介绍了BP神经网络的基本概念、模型、前向传播过程以及计算步骤。博主通过实例解释了多层前馈神经网络的工作原理,并探讨了BP算法如何利用误差反向传播进行训练。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作为刚开始接触机器学习的小白,想把每一次学习的收获都记录在博客里,成为自己的笔记随时复习,以及为日后学习这领域的朋友当成参考的资料。文中若有错误请各位大牛帮忙订正。

(一)什么是BP神经网络?


BP(back propagation)从字面上翻译就是反向传播,传播误差,期望输出值与真实输出值的差异就是误差,因此BP神经网络就是一种算法根据误差反向传播训练的多层前馈神经网络。
在此有个疑问,什么是多层前馈神经网络?
神经网络粗略分有两种类型:前馈网络以及反馈网络
前馈网络 O=f(w*x+b) {\textbf{O=f(w*x+b)}} O=f(w*x+b) 每一层的输出只与前一层输入乘上权重加上偏置项有关
反馈网络 Ot=f(w*x   +   Ot-1*v+   b) {\textbf{Ot=f(w*x + Ot-1*v+ b)}} Ot=f(w*x + Ot-1*v+ b) 每一层的输出与前一次状态输出有关


(二)BP神经网络模型

BP神经网络模型
我假设 X = [ 0.5 , 0.4 , 0.3 ] 为 一组输入,且期望输出值为 Y = 0.8


(三)BP神经网络前向传播

BP神经网络前向传播与感知机模型计算一样,例如隐含层 H 1 H_1 H1 输出是 f ( w ∗ x + b ) f(w*x+b) f(wx+b)
其中 f ( ) f( ) f()是激活函数 1 1 + e − x \frac{1}{1+e^{-x}} 1+ex1 ,因此 w ∗ x + b w*x+b wx+b = 0.5 ∗ 0.4 + 0.4 ∗ 0.5 + 0.3 ∗ 0.2 + 1 ∗ 0.2 0.5*0.4 + 0.4*0.5 + 0.3*0.2 + 1*0.2 0.50.4+0.40.5+0.30.2+10.2 = 0.66 0.66 0.66,代入 1 1 + e − ( w ∗ x + b ) \frac{1}{1+e^{-(w*x+b)}} 1+ewx+b)1 = 1 1 + e − ( 0.66 ) \frac{1}{1+e^{-(0.66)}} 1+e(0.66)1 = 0.659

(四)BP神经网络计算步骤

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值