梯度下降法

本文详细介绍了机器学习中常用的三种梯度下降法:批量梯度下降法、随机梯度下降法和小批量梯度下降法。批量梯度下降法虽然能获得全局最优解,但计算量大;随机梯度下降法训练速度快,但可能并非全局最优;小批量梯度下降法则综合两者优点,是常用的选择。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

参考:https://blog.youkuaiyun.com/kevin_123c/article/details/51879935

机器学习中,常常会用到梯度下降法来减小损失,求解模型的最优解。

线性回归函数的一般可以写成:hθ=∑n j=0 θjxj

损失函数为:

 

1、批量梯度下降法(BGD,batch gradient decent)

  批量梯度下降法是每次迭代更新参数时,都用上所有的样本。这样,迭代一次就需要用到十几万训练样本,而一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。

  这样虽然可以得到全局最优解,但是计算量很大,影响速度。

 

2、随机梯度下降法(SGD,stochastic gradient decent)

  随机梯度下降法是每次迭代更新参数时,只使用一个样本。如果样本量很大的情况,那么可能只用其中部分的样本,就已经将参数theta迭代到最优解了。

  该方法优点是训练速度快,缺点是单个样本的噪声较大,使得SGD并不是每次迭代都是向着整体最优的方向,准确率下降,并不是全局最优。

 

3、小批量梯度下降法(MBGD,mini batch gradient decent)

  小批量梯度下降法是在每次迭代更新参数时,使用固定a个样本。比如总样本1000,取a=10。

  该方法是对上述两种方法做的改进。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值