21、连续优化与机器学习:数据、模型与学习的深度解析

连续优化与机器学习:数据、模型与学习的深度解析

1. 连续优化基础

连续优化在机器学习中具有重要地位,尤其是那些可表示为凸优化问题的机器学习任务。勒让德 - 芬切尔共轭在这类问题中十分有用,特别是对于独立应用于每个示例的凸损失函数,共轭损失是推导对偶问题的便捷方式。

从梯度下降的角度来看,它存在两个主要弱点:
- 缺乏曲率信息 :梯度下降是一阶算法,不利用曲面的曲率信息。当存在长谷时,梯度方向与感兴趣的方向垂直。为解决此问题,有多种方法:
- 动量法 :可推广为一类加速方法。
- 共轭梯度法 :通过考虑先前的方向来避免梯度下降面临的问题。
- 二阶方法 :如牛顿法,使用海森矩阵提供曲率信息。
- 拟牛顿法 :如 L - BFGS,尝试用更廉价的计算方法近似海森矩阵。
- 其他方法 :如镜像下降和自然梯度法。
- 处理不可微函数 :当函数存在折点时,梯度方法定义不明确,此时可使用次梯度方法。

在现代机器学习应用中,数据集规模常使批量梯度下降无法使用,因此随机梯度下降成为大规模机器学习方法的常用工具。

以下是相关方法的总结表格:
| 方法类型 | 具体方法 | 特点 |
| — | — | — |
| 解决缺乏曲率信息 | 动量法 | 可推广为加速方法 |
| | 共轭梯度法 | 考虑先前方向

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值