BP神经网络学习-(1)

本文介绍了BP神经网络的构成,包括输入层、隐含层和输出层,强调了激活函数在处理非线性问题中的作用。讨论了训练方式,包括正向传播和反向传播,以及在训练过程中如何更新参数。还提到了在Python中使用Tensorflow框架实现神经网络的简化流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

神经网络构成

神经网络分为三层:输入层(input layer),隐含层(hidden layer),输出层(output layer)
在这里插入图片描述
(输入层的个数由输入层的特征个数决定,而不是样本的个数)

假设输入层有n个节点,隐含层有m个节点,输出层有k个节点

令W_ni_mj为输入层第i个节点到隐含层第j个节点的一个连接强度(这两个节点之间的权值),bj为隐含层第j个节点的阈值

第i个输入节点经过第j个隐含层的输出为
W_ni_mj*xi+bj

所有的输入节点经过第j个隐含层的输出为
S=sum{W_ni_mj*xI}+bj i=1,2,3…n

当然并不能把S直接输出
要通过传递函数/激活函数(transfer function/activate function )f(.) 进行转换就可以输出了

在这里插入图片描述

训练方式

BP神经网络由数据流的前向运算和误差分析的反向传播两部分构成

正向传播
方向为输入层->隐含层->输出层
每层神经元状态只影响下一层神经元
使用规定好的参数来一层一层的进行计算直到最后输出

反向传播
当得到的值不符合期望值时,就会反向传播根据损失函数来更新每一层神经元的参数值<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值