传统算法(一):
线性回归
一、什么是线性回归
线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。
举一个栗子数据:
工资和年龄(2个特征)
目标:预测银行会贷款给我多少钱(标签)
线性回归考虑:工资和年龄都会影响最终银行贷款的结果那么它们各自有多大的影响呢?(参数)
工资 | 年龄 | 额度 |
---|---|---|
4000 | 25 | 12000 |
8000 | 28 | 15000 |
12000 | 35 | 20000 |
15000 | 40 | 25000 |
所以,通俗的解释就是:
x1,x2对应的就是工资和年龄两个变量,而y就是最终银行会批的额度;线性回归就是建立关于X与Y的一个方程式;
二、建立目标函数
接下来根据上面的例子,我们来建立目标函数
假设 θ 1 \theta_1 θ1是年龄参数, θ 2 \theta_2 θ2是工资参数
拟合的平面则为:
h θ ( X ) = θ 0 + θ 1 x 1 + θ 2 x 2 h_\theta(X)=\theta_0+\theta_1x_1+\theta_2x_2 hθ(X)=θ0+θ1x1+θ2x2 其 中 θ 0 是 偏 置 项 其中\theta_0是偏置项 其中θ0是偏置项
整合,可得如下:
h θ ( X ) = ∑ i = 0 n θ i X i = θ T X h_\theta(X) =\sum_{i=0}^n\theta_iX_i =\theta^TX hθ(X)=i=0∑nθiXi=θTX
当然真实值和预测值之间肯定是要存在差异的,这个称作“误差”
误差项:
公式中我们 ε \varepsilon ε用来表示该误差值,那可以进一步得到目标函数为:
y ( i ) = θ T X ( i ) + ε ( i ) y^{(i)}=\theta^TX^{(i)}+ \varepsilon^{(i)} y(i)=θTX(i)+ε(i)
这里每一个 i i i都会对应有 ε \varepsilon ε,并且假设 ε ( i ) \varepsilon^{(i)} ε(i)均值为0,方差为 θ 2 \theta^2 θ2,且服从高斯分布,也就是正态分布。
那么我们可以知道 ε \varepsilon ε概率为:
P ( ε ( i ) ) = 1 2 π σ e ( − ( ε ( i ) ) 2 2 σ 2 ) P(\varepsilon^{(i)})=\frac{1}{\sqrt{2\pi}\sigma}e^{(-\frac{(\varepsilon^{(i)})^2}{2\sigma^2})} P(ε(i))=2πσ1e(−2σ2(ε(i))2)
将目标函数转换为: ε = y ( i ) − θ T X ( i ) \varepsilon=y^{(i)} -\theta^TX^{(i)} ε=y(i)−θTX(i)并带入以上公式,可得:
P ( y ( i ) ∣ x ( i ) ; θ ) = 1 2 π σ e ( − ( y ( i ) − θ T X ( i ) ) 2 2 σ 2 ) P(y^{(i)}|x^{(i)};\theta)=\frac{1}{\sqrt{2\pi}\sigma}e^{(-\frac{({y^{(i)} -\theta^TX^{(i)}})^2}{2\sigma^2})} P(y(i)∣x(i);θ)=2π