LLM大模型中的基础数学工具—— 梯度优化

Q23: 推导梯度下降 x_{t+1} = x_t - \eta \nabla f(x_t)的收敛条件(Lipschitz 连续假设)

梯度下降与 Lipschitz 连续是啥?

梯度下降是一种常用的优化算法,就像在山上找下山的路,每一步都沿着坡度(梯度)最陡的反方向走,公式 x_{t+1} = x_t - \eta \nabla f(x_t)中,\eta 是每步走的 “步长”。但如果步长太大,可能会跳过山谷,Lipschitz 连续假设就像是给下山的速度设了个 “限速”,即 \|\nabla f(x) - \nabla f(y)\| \leq L \|x - y\|(L 是常数),确保函数值不会突然大幅变化。

推导过程

利用泰勒展开式 f(x_{t+1}) = f(x_t - \eta \nabla f(x_t)) \approx f(x_t) - \eta \|\nabla f(x_t)\|^2 + \frac{\eta^2 L}{2} \|\nabla f(x_t)\|^2。要保证每一步都在 “下山”(f(x_{t+1}) < f(x_t)),整理可得 - \eta + \frac{\eta^2 L}{2} \leq - \frac{\eta}{2},解这个不等式得出 

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

墨顿

唵嘛呢叭咪吽

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值