线性回归
Task1
统计学习是关于计算机基于数据构建概率统计模型并利用模型进行预测与分析的一门科学
包括监督学习,无监督学习,强化学习,半监督学习,主动学习
监督学习的应用分为:
分类、标注、回归
回归模型时表示从输入变量到输出变量之间映射的函数。
一般分为:
线性回归和非线性回归
一般形式
f
(
x
)
=
θ
0
+
θ
1
x
1
+
θ
2
x
2
+
.
.
.
+
θ
d
x
d
=
∑
i
d
θ
i
x
i
f(x)=θ_0+θ_1x_1+θ_2x_2+...+θ_dx_d=∑_ i ^d θ_ix_i
f(x)=θ0+θ1x1+θ2x2+...+θdxd=∑idθixi
损失函数一般使用均方误差:
J
(
θ
)
=
1
2
∑
(
h
θ
(
x
(
i
)
−
y
(
i
)
)
)
2
J(θ)=\frac{1}{2}∑(h_\theta(x^{(i)}-y^{(i)}))^2
J(θ)=21∑(hθ(x(i)−y(i)))2
最终求得:
a
r
g
m
i
n
j
(
θ
)
argmin j(\theta)
argminj(θ)
理论
为什么用均方误差?
极大似然估计
前提:假设误差独立同分布,且服从高斯分布。
则可以利用极大似然估计去拟合误差
最大似然估计的结果为:
求
l
(
θ
)
=
l
o
g
L
(
θ
)
=
l
o
g
∏
i
=
1
n
1
2
π
σ
e
−
(
y
(
i
)
−
θ
T
x
(
i
)
)
2
2
σ
2
=
∑
i
=
1
n
l
o
g
1
2
π
σ
e
−
(
y
(
i
)
−
θ
T
x
(
i
)
)
2
2
σ
2
=
n
l
o
g
1
2
π
σ
−
1
σ
2
⋅
1
2
∑
i
=
1
n
(
y
(
i
)
−
θ
T
x
(
i
)
)
2
l(\theta)=logL(θ) \\= log\prod_{i=1}^n\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(y^{(i)}-\theta^Tx^{(i)})^2}{2\sigma^2}} \\=\sum_{i=1}^nlog\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(y^{(i)}-\theta^Tx^{(i)})^2}{2\sigma^2}} \\=nlog\frac{1}{\sqrt{2\pi}\sigma}-\frac{1}{\sigma^2}\cdot\frac{1}{2}\sum_{i=1}^n(y^{(i)}-\theta^Tx^{(i)})^2
l(θ)=logL(θ)=log∏i=1n2πσ1e−2σ2(y(i)−θTx(i))2=∑i=1nlog2πσ1e−2σ2(y(i)−θTx(i))2=nlog2πσ1−σ21⋅21∑i=1n(y(i)−θTx(i))2最大
即求
1
2
∑
i
=
1
n
(
y
(
i
)
−
θ
T
x
(
i
)
)
2
\frac{1}{2}\sum_{i=1}^n(y^{(i)}-\theta^Tx^{(i)})^2
21∑i=1n(y(i)−θTx(i))2最小。
优化方法
- 梯度下降
- 最小二乘法
矩阵求解
掌握矩阵求导 - 牛顿法
数值法求导 - 牛牛顿法
评价指标
- 均方误差
- 均方根误差
- 平均绝对误差
- R 2 R^2 R2
程序
利用sklearn.linear_model实现