深度学习---梯度下降算法

本文介绍了深度学习中的三种梯度下降算法:批量梯度下降、随机梯度下降和小批量梯度下降。批量梯度下降使用所有样本更新参数,能更准确地找到极值,但计算开销大;随机梯度下降速度快但准确度下降,可能陷入局部最优;小批量梯度下降综合了两者的优点,是实践中常用的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、批量梯度下降算法

批量梯度下降法是最原始的形式,它是指在每一次迭代时使用所有样本来进行梯度的更新。在深度学习里,优化算法的目标函数通常是训练数据集中有关各个样本的损失函数的平均。设 f i ( x ) f_i(x) fi(x)是有关索引为 i i i的训练数据样本的损失函数, n n n是训练数据样本数, x x x是模型的参数向量,那么目标函数定义为: f ( x ) = 1 n ∑ i = 1 n f i ( t ) f(x) = \frac 1n \sum_{i=1}^{n}{f_i(t)} f(x)=n1i=1nfi(t)(1)目标函数在 x x x处的梯度计算为: ∇ f ( x ) = 1 n ∑ i = 1 n ∇

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值