AI 梯度下降

本文深入解析梯度下降算法,涵盖导数、临界点、偏导数、方向导数等概念,阐述其在最优化问题中的应用,尤其适用于代价函数最小化场景。通过理解梯度向量和学习率,掌握爬山算法的精髓。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

梯度下降(gradient descent),是一种用于最优化(通常是最小化),代价函数/损失函数/目标函数/误差函数/准则,的方法。 不过,最值有时很难找到,尤其是在高维情况下,所以常常把局部最优解看作全局最优解

1、导数

f(x)在x处的斜率。

 

2、临界点(critical point)/驻点(stationary point)

导数为0,包括局部极小点、局部极大点、鞍点。 

 

3、偏导数(partial derivative)

f(x)关于多维输入x的其中一维xi的导数。 

 

4、方向导数(directional derivative)

导数和偏导数只能描述坐标轴方向的变化率。但是一个点在无数个方向上都有变化率,这时候就需要方向导数了:f(x)在某个向量方向上的导数。

 

5、梯度

梯度是一个向量,向量的第i个元素是f(x)关于xi的偏导数。临界点是梯度中所有元素都为0的点。

 

6、学习率(learning rate)

 

爬山算法

 

参考链接:

https://www.zhihu.com/question/36301367

https://zhuanlan.zhihu.com/p/38525412 

https://mp.weixin.qq.com/s?__biz=MzI4MDYzNzg4Mw==&mid=2247483704&idx=1&sn=8f0c6e33ef84c26823e562be16bce684&chksm=ebb439ecdcc3b0fa4e9571deb33ccea62e42034c88db4e190633588307dce4a1e0c91ed2635c&scene=21#wechat_redirect 

 

转载于:https://www.cnblogs.com/yangwenhuan/p/9695807.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值