【MindSpore易点通】模型训练中的梯度下降

本文介绍了机器学习和深度学习中常用的优化算法——梯度下降法,详细阐述了其基本过程,并对比了批量、随机和小批量三种梯度下降法的特点。重点在于理解梯度下降如何寻找损失函数的最小值,以及不同梯度下降方法在实际应用中的选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

简介

在机器学习和深度学习中,需要对训练中的模型构建损失函数,这样才能在训练过程中找到最优的参数。梯度下降法是较常使用的优化算法,在求解过程中,需要求解损失函数的一阶导数。

通俗理解就是:

  1. 从loss的某一点出发;
  2. 找到当前最陡的坡(找梯度最大的方向);
  3. 朝最陡方向走一步(一次迭代后,一步的大小为步长);
  4. 循环执行2和3,走到最低点。

常见的梯度下降有三种不同的计算方法:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)。接下来,我们将对这三种不同的梯度下降法进行探讨。

梯度下降的基本过程

以简单的线性回归模型为例:

1、假设数据集中有m个样本,那么损失函数就是

2、初始化θ0,θ1,...,θm, 算法终止距离ε,以及步长α。可以将所有的θ初始化为0, 将步长初始化为1。那么当前位置损失函数的梯度为:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值