基本形式
给定由d个属性描述的示例
即:
向量形式为:
f(x)=wTx+b
其中w=(w1;w2;…;wd)
w和
线性回归
给定的数据集D={(x1,y1),(x2,y2),…,(xm,ym)}
其中xi=(xi1;xi1;…;xid),yi∈R
“线性回归”试图学得一个线性模型以尽可能准确地预测实值得输出标记。
最小二乘法
便于讨论考虑一种简单情况,输入属性的数目只有一个。
数据集为D={(xi,yi)}mi=1其中xi∈R
线性回归处理
f(xi)=wxi+b,使得f(xi)≈yi
均方误差:
E(f;D)=1m∑i=1m(f(xi)−yi)2
让均方误差最小化
(w∗,b∗)=argmin(w,b)∑i1m(f(xi)−yi)2=argmin(w,b)∑i1m(yi−wxi−b)2
基于均方误差最小化来进行模型求解的方法称为“最小二乘法”(least square method)
最小二乘法的目的
试图找到一条直线,使得所有样本到直线上的欧式距离之和最小。
求解w和
将E(w,b)分别对w和
∂E(w,b)∂w∂E(w,b)∂b=2(w∑i=1mx2i−∑i=1m(yi−b)xi)=2(mb−∑i=1m(yi−wxi))
令上面的两个等式为零:
⎧⎩⎨⎪⎪⎪⎪⎪⎪∂E(w,b)∂w∂E(w,b)∂b=0=0
于是有:
⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪w∑i=1mx2i−∑i=1m(yi−b)ximb−∑i=1m(yi−wxi)=0 (1)=0 (2)
由式(2)得
b=1m∑i=1m(yi−wxi) (3)
将式(3)代入式(1)得到
w∑i=1mx2i−∑i=1m[yi−1m∑j=1m(yj−wxj)]xiw∑i=1mx2i−∑i=1m[yi−1m∑j=1m(yj−wxj)]xiw∑i=1mx2i−∑i=1m[xiyi−1mxi∑j=1m(yj−wxj)]w∑i=1mx2i−∑i=1mxiyi−∑i=1m1mxi⎡⎣∑j=1myj−∑j=1mwxj⎤⎦w∑i=1mx2i−∑i=1mxiyi−∑i=1m1mxi∑j=1myj−1mw⎛⎝∑j=1mxj⎞⎠2=0=0=0=0=0
化简得到:
w⎛⎝∑i=1mx2i−w⎛⎝∑j=1mxj⎞⎠2⎞⎠www统一符号↓w=∑i=1mxiyi−∑i=1m1mxi∑j=1myj=∑i=1mxiyi−∑i=1m1mxi∑j=1myj∑i=1mx2i−1mw(∑j=1mxj)2=∑i=1mxiyi−∑i=1m1mxi∑j=1myj∑i=1mx2i−1mw(∑j=1mxj)2=∑i=1mxiyi−∑i=1m1mxi∑j=1myj∑i=1mx2i−1mw(∑j=1mxj)2=∑i=1myi(xi−x¯)∑i=1mx2i−1mw(∑i=1mxi)2
其中x¯=1m∑i=1mxi