机器学习笔记之牛顿方法

本文介绍了牛顿方法的基本原理及其在函数求根和最优化问题中的应用。详细解释了如何通过迭代更新来逼近函数的根或者极值点,同时讨论了牛顿方法与梯度下降法在收敛速度上的差异。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

假设有函数:这里写图片描述,我们希望找到满足这里写图片描述这里写图片描述值. 这里这里写图片描述是实数. 

牛顿方法执行下面的更新: 
这里写图片描述 
下图为执行牛顿方法的过程: 
这里写图片描述 
简单的来说就是通过求当前点的导数得到下一个点.用到的性质是导数值等于该点切线和横轴夹角的正切值.

这里写图片描述,我们可以用同样的算法去最大化这里写图片描述 
这里写图片描述

牛顿方法的一般化: 
如果这里写图片描述是一个向量,那么: 
这里写图片描述 
其中,这里写图片描述这里写图片描述这里写图片描述的偏导数; 
H称为黑塞矩阵(Hessian matrix),是一个n*n的矩阵,n是特征量的个数,并且这里写图片描述

牛顿方法的收敛速度比批处理梯度下降快很多,很少次的迭代就能够非常接近最小值了;但是当n很大时,每次迭代求黑塞矩阵和黑塞矩阵的逆代价是很大的.

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值