随机梯度下降SGD

本文介绍了随机梯度下降(SGD)算法在机器学习模型训练过程中的作用,详细阐述了如何在每个训练迭代中使用小批量数据更新参数。通过采样m个样本计算梯度估计,并应用学习率调整参数更新,从而有效优化模型。该方法在现代深度学习中广泛使用,提高了训练效率和收敛速度。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

随机梯度下降(SGD)在第k个训练迭代的更新

Require:学习率ϵkRequire:初始参数θwhile停止准则为满足do从训练集中采包含m个样本{x(1),...,x(m)}的小批量,其中x(i)对应目标为y(i)。计算梯度估计:g^←+1m∇θ∑iL(f(x(i);θ),y(i))应用更新:θ←θ−ϵg^end  while \begin{aligned} Requ&ire:学习率\epsilon_k \\Requ&ire:初始参数\theta \\wh&ile 停止准则为满足 do \\&从训练集中采包含m个样本\{x^{(1)},...,x^{(m)}\}的小批量,其中x^{(i)}对应目标为y^{(i)}。 \\&计算梯度估计:\hat{g} \leftarrow + \tfrac{1}{m}\nabla_\theta\textstyle\sum_iL(f(x^{(i)};\theta),y^{(i)}) \\&应用更新:\theta\leftarrow\theta-\epsilon\hat{g} \\en&d \;while \end{aligned} RequRequwhenireϵkireθiledom{x(1),...,x(m)}x(i)y(i)g^+m1θiL(f(x(i);θ),y(i))θθϵg^dwhile
其中L表示损失函数,∇\nabla表示梯度计算,f(x(i);θ)f(x^{(i)};\theta)f(x(i);θ)表示在θ\thetaθ的情况下,x的值,其实就是预测值
参考:https://zhuanlan.zhihu.com/p/36327151
https://zhuanlan.zhihu.com/p/31708783

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值