西瓜书复习:神经网络

本文介绍了神经网络的基础,从简单的感知机开始,探讨了前馈神经网络及其学习过程。讨论了输入层、隐层、输出层的结构以及权重调整。此外,还涉及了学习率的影响、标准BP算法与累积BP算法的区别,以及如何缓解过拟合问题,包括早停策略和正则化。最后,提到了神经网络训练中的参数优化和跳出局部最优的方法,如模拟退火和随机梯度下降,并预告了对其他常见神经网络的复习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

感知机,仅由两层神经元组成,感知机的学习过程:
在这里插入图片描述
感知机只有输出层神经元进行激活函数处理,只有一层功能神经元,学习能力非常有限。

前馈神经网络,与感知机相比多了隐层。输入层仅是接受输入,不进行函数处理,隐层与输出层包含功能神经元。
神经网络的学习过程,就是根据训练数据来调整神经元之间的“连接权”以及每个功能神经元的阈值。
在这里插入图片描述
输入d个属性,输出l维实例向量。即输入层d,输出层l,隐层设为q。输入层与隐层之间连接权重为v,隐层与输出层之间连接权重为w,网络为全连接。激活函数均使用sigmoid函数。
在这里插入图片描述
学习率控制着每一轮迭代中的更新步长,若太大则容易振荡,太小则收敛速度过慢。

标准BP算法每次仅针对一个训练样例更新链接权重和阈值,参数更新的比较频繁,而且对不同样例更新的效果可能会出现抵消现象,为了达到同样的累积误差极小点,标准BP算法往往需要进行更多次数的迭代。
累积BP算法直接针对累积误差最小化,读取整个训练集D一遍后才对参数进行更新,但在很多任务中,累积误差下降到一定程度后,进一步下降会非常缓慢,这时标准BO往往会更快获得较好的解,尤其是训练集D非常大时。

缓解神经网络的过拟合:
1.早停:将数据分为训练集和验证机,若训练集误差降低但验证集误差升高,停止训练,同时返回参数
2.正则化:在误差函数中加一个用于描述网络复杂度的部分,如

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值