梯度下降法和牛顿法的总结与比较

本文对比分析了梯度下降法和牛顿法在机器学习模型优化中的应用。梯度下降通过负梯度方向更新参数,包括批量、随机和小批量三种形式;牛顿法则通过求解一阶导数为0的参数值来寻找极值,利用海森矩阵调整步长。牛顿法收敛速度快但计算成本高,而梯度下降法简单但步长控制至关重要。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习的本质是建立优化模型,通过优化方法,不断迭代参数向量,找到使目标函数最优的参数向量。最终建立模型

通常用到的优化方法:梯度下降方法、牛顿法、拟牛顿法等。这些优化方法的本质就是在更新参数。

一、梯度下降法

  0、梯度下降的思想

·    通过搜索方向和步长来对参数进行更新。其中搜索方向是目标函数在当前位置的负梯度方向。因为这个方向是最快的下降方向。步长确定了沿着这个搜索方向下降的大小。

    迭代的过程就像是在不断的下坡,最终到达坡地。

    接下来的目标函数以线性回归的目标函数为例:

    

    

 

  1、批量梯度下降法

    

    

    参数更新是要用到全部样本。如上式中的m

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值