一、基础知识:
1.目标函数
机器学习要优化的目标函数一般表现为一下形式:
函数J(θ)为目标函数,f为表示真实值与拟合值之差的损失函数,r(θ)为正则项(防止过拟合问题,主要分为L1正则项、L2正则项)。
各种优化算法通过不同的方式求解该方程以得到使J(θ)最优的参数θ。
2.优化算法
5类最常见的优化算法:
梯度下降算法(GD):可微凸函数
二阶优化算法(Second-order):可微凸函数
邻近梯度算法(PG):可微凸函数与不可微凸函数的和问题
坐标下降算法(CD):不可求导凸函数问题
交替方向乘子算法(ADMM):有约束的凸函数问题
3.算法评价维度
(1)模型特性(目标函数特性)
目标函数按照属性特征分为:凸函数和非凸函数,其中凸函数又分为强凸函数(到达极小值区域时函数曲线陡峭)和非强凸函数(到达极小值区域时函数曲线平缓)。
传统机器学习问题通常为凸函数优化问题。又可细分为对变量有约束的凸函数和对变量无约束的凸函数,可微凸函数和不可微凸函数。
神经网路相关的深度学习问题通常是非凸函数,目前非凸函数的优化算法研究较少。
(2)输入数据特性
稀疏性:样本特征值非零的