最小二乘法的思想
最小二乘法则是一种统计学习优化技术,它的目标是最小化误差平方之和来作为目标,从而找到最优模型,这个模型可以拟合(fit)观察数据。
回归学习最常用的损失函数是平方损失函数,在此情况下,回归问题可以用著名的最小二乘法来解决。最小二乘法就是曲线拟合的一种解决方法。
最小二乘法的问题分为两类:
- 线性最小二乘法
- 非线性最小二乘法
如果是线性的则有闭式解(closed-form solution),唯一解。理解为所有点都在某条线上,全拟合好了。
非线性的经常需要数值方法来求解。比如:随机梯度下降或者牛顿法等。当然,随机梯度下降也可以解决线性问题。
目标公式
J
(
θ
)
=
∑
i
=
1
m
(
f
θ
(
x
i
)
−
y
i
)
2
(1)
J(\theta)= \sum_{i=1}^{m} (f_\theta(x_{i})-y_{i})^2 \tag{1}
J(θ)=i=1∑m(fθ(xi)−yi)2(1)
最小二乘法的目标就是最小化公式1。f则是模型(取自假设空间),y则是观察值。
通俗来讲,就是观察值和拟合值(模型给出)之间的距离平方和最小化作为目标来优化。
求解方法
矩阵求导方法
思想就是把目标函数划归为矩阵运算问题,然后求导后等于0,从而得到极值。以线性回归问题为例:
求解最小二乘的问题推导为如下:求解变量
θ
\theta
θ,满足
(
X
T
X
)
θ
=
X
T
y
(2)
(X^T X)\theta = X^Ty {\tag2}
(XTX)θ=XTy(2)
如果可逆,将得到:
θ
=
(
X
T
X
)
−
1
X
T
y
\theta = (X^T X)^{-1}X^Ty
θ=(XTX)−1XTy
这是利用矩阵得到的最小二乘法的一种解法。
注意这是线性回归的最小二乘法的求解结果,不是其他问题的,其他问题的假设函数有时候很复杂。比如下面的博文对线性回归的推算挺好,但没有说明求导的大前提条件:线性回归,这容易把最小二乘法和最小二乘法的求解混在一起。
http://blog.youkuaiyun.com/ACdreamers/article/details/44662633
##数值方法随机梯度下降
思路:对参数向量求导,使其梯度为0,然后得到参数变量的迭代更新公式。
θ
j
:
=
θ
j
−
α
∗
∂
J
(
θ
)
∂
(
θ
j
)
(3)
\theta_j:=\theta_j - \alpha* \frac{\partial J(\theta)}{\partial(\theta_j)} \tag{3}
θj:=θj−α∗∂(θj)∂J(θ)(3)
请参考:http://blog.youkuaiyun.com/iterate7/article/details/76709492
##数值方法牛顿法
利用泰勒公式展开,利用梯度和海塞矩阵进行迭代下降。速度很快。
x
k
+
1
=
x
k
−
H
k
−
1
g
k
(4)
x^{k+1}=x^{k}-H^{-1}_kg_{k} \tag{4}
xk+1=xk−Hk−1gk(4)
变量以牛顿方法来下降。
牛顿方向定义为:
−
H
k
−
1
g
k
-H^{-1}_kg_{k}
−Hk−1gk
请参考:
http://blog.youkuaiyun.com/iterate7/article/details/78387326
最小二乘和梯度下降区别
最小二乘看做是优化问题的话,那么梯度下降是求解方法的一种。梯度下降是一种解决最优化问题的数值方法。最小二乘法则是一个最优化问题。
简单总结
数值方法的基本含义则是对一个函数求极值,在无法直接求得解析解的情况下,通过求导为0的方法,找到迭代方向保证可以下降目标值,梯度方向或者牛顿方向等等。 逐步下降直到满足一些工程要求则结束迭代。
后记
- 最小二乘法是一种对于偏差程度的评估准则思想,由公式1给出。个人认为,应该称之为:最小二乘准则。
- 公式1里没有给出f的值,也就是说假设空间。如果是线性回归,也就是wx+b的形式,那么公式2就是最小二乘法的解。所以大部分的博文都在此范畴讨论。为何都用这个线性回归直接说呢,其实最小二乘准则更适合线性回归。应该称之为狭义的最小二乘方法,是线性假设下的一种有闭式解的参数求解方法,最终结果为全局最优。
- 梯度下降只是数值求解的具体操作,和最小二乘准则下面的最优化问题都可以用随机梯度下降求解。
线性回归python
import numpy as np
import matplotlib.pyplot as plt
data = np.array([
[1, 6],
[2, 5],
[3, 7],
[4, 10]
])
m = len(data)
X = np.array([np.ones(m), data[:, 0]]).T
print("X:", X)
y = np.array(data[:, 1]).reshape(-1, 1)
print("y:",y)
W = np.linalg.solve(X.T.dot(X), X.T.dot(y)) ## 求解XW=y的值,W
print("W:",W)
##show
plt.figure(1)
xx = np.linspace(0, 5, 2)
yy = np.array(W[0] + W[1] * xx)
plt.plot(xx, yy.T, color='b')
plt.scatter(data[:, 0], data[:, 1], color='r')
plt.show()
参考
机器学习 周志华 线性模型和最小二乘法
https://en.wikipedia.org/wiki/Least_squares
https://en.wikipedia.org/wiki/Linear_least_squares_(mathematics)
https://en.wikipedia.org/wiki/Newton’s_method_in_optimization