【深度学习】BP神经网络

本文介绍了BP(BackPropagation)网络的基本概念及其广泛应用。详细解析了BP算法的核心思想,并通过实例展示了单层BP神经网络的工作原理。文章还探讨了隐含层神经元数量对网络性能的影响。
部署运行你感兴趣的模型镜像

一.定义:

BP(Back Propagation)网络,是一种按误差逆传播算法训练的多层前馈网络,是应用最广泛的神经网络模型之一。

BP网络能学习和存贮大量的输入-输出模式映射关系

二.BP算法的核心思想:

学习过程由信号的正向传播误差的反向传播两个过程组成。

 三.实例

1.单层BP神经网络

 输入多少个数据,就有多少个输入层的神经元。

注意:

(1) 如果隐含层中的神经元节点设置过少,结果可能造成神经网络的训练过程收敛变慢或者不收敛。

(2)如果隐层中节点过多,模型的预测精度会提高,但同时网络拓扑结构过大,收敛速度慢,普遍性会减弱。

(3)隐藏层神经元的设置方法:如果BP神经网络中输入层节点数为m个,输出层节点是为n个,则由下式式可推出隐藏层节点数为s个。其中b一般为1-9的整数。

 

四.推导过程

以一个BP神经网络为例

第一层是输入层,包含两个神经元i1,i2,和截距项b1:

第二层是隐含层,包含两个 神经元h1,h2和截距项(偏置系数)b2。用于控制神经元被激活的容易程度。

第三层 是输出o1,o2,每条线上标的wi是层与层之间连接的权重。

 求out h1的数值,需要将x代换为neth1 的值。

 最后依据偏导值来计算w5的值,n为学习率,自己根据现实定义的一个值。根据上述过程,还需要算出w2,w3,w4等等的值。

这样误差反向传播法就完成了,最后再把更新的权值重新计算,不停地迭代,总误差E(total)逐步减小,直到达到所需要的误差范围或者是设定的迭代次数。

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.9

TensorFlow-v2.9

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

深度学习中的BP神经网络是一种按照误差逆向传播算法训练的多前馈神经网络BP算法的基本思想是学习过程由信号的正向传播和误差的反向传播两个过程组成。正向传播是指输入信号从输入经过隐藏传递到输出的过程,而反向传播是指根据输出的误差信号,通过调整网络中的权重和偏置来更新网络参数的过程。 在BP神经网络中,每个神经元都有一个激活函数,用于将输入信号转换为输出信号。常用的激活函数有sigmoid函数、ReLU函数等。通过正向传播,输入信号经过一系列的线性变换和激活函数的作用,最终得到输出信号。然后,通过计算输出信号与期望输出之间的误差,利用误差反向传播的方法,将误差逐传播回网络,根据误差信号调整每个神经元的权重和偏置,以减小误差,使得网络的输出逼近期望输出。 然而,在深度学习中,由于网络数的增加,学习信号在传播过程中可能会逐渐减小,导致梯度消失的问题。梯度消失指的是学习信号随着网络传播逐渐减小,经过多传播后,学习信号接近于0,使得权重调整接近于0,参数无法优化,整个网络无法再进行学习。 为了解决梯度消失的问题,深度学习中提出了一些改进的方法,如使用ReLU等激活函数、批量归一化、残差连接等。这些方法可以有效地缓解梯度消失问题,使得深度神经网络能够更好地进行训练和学习。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值