第八节机器学习--神经网络

本文深入探讨神经网络,包括反向随机失活、梯度下降优化算法如指数加权平均、动量梯度和Adam算法。此外,介绍了神经网络的历史、结构、激活函数以及反向传播原理,帮助理解神经网络的工作机制。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、神经网络

1、反向随机失活
Inverted DropOut反向随机失活
d3 = np.randm.rand(a3.shape[0], a3.shape[1]) < keep_prob

a3 = np.multiply(a3, d3)

a3 /= keep-prob

假设有50个神经元, keep-prob = 0.8, 也就意味着10个左右的神经元要设为0

在这种情况下, z = wa + b 就要减少20%, 这样呢,z会越来越小

为了弥补这种情况,我们需要对a进行弥补,弥补的方式就是用a/keep_prob 。

2、梯度下降的优化算法
指数加权平均
在这里插入图片描述
加权平均的作用
在这里插入图片描述在这里插入图片描述在这里插入图片描述
3、动量梯度算法
计算梯度的指数加权平均数,并利用该梯度更新你的权重值。
在这里插入图片描述
如果朝着一个方向运动的话,就好像有个小球推着你走
如果朝着不

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值