[机器学习][基础知识]线性回归

本文深入探讨了线性回归这一核心机器学习方法,介绍了其数学原理,包括损失函数的选择——均方误差,以及优化方法如梯度下降和最小二乘法等。文章还详细解释了为何在假设误差独立同分布且服从高斯分布的前提下,使用均方误差作为损失函数的合理性,并通过极大似然估计来拟合模型。此外,还提到了几种常用的评价指标和如何在Python中使用sklearn库实现线性回归。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性回归

Task1

统计学习是关于计算机基于数据构建概率统计模型并利用模型进行预测与分析的一门科学
包括监督学习,无监督学习,强化学习,半监督学习,主动学习

监督学习的应用分为:
分类、标注、回归
回归模型时表示从输入变量到输出变量之间映射的函数。
一般分为:
线性回归和非线性回归

一般形式

f ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 + . . . + θ d x d = ∑ i d θ i x i f(x)=θ_0+θ_1x_1+θ_2x_2+...+θ_dx_d=∑_ i ^d θ_ix_i f(x)=θ0+θ1x1+θ2x2+...+θdxd=idθixi
损失函数一般使用均方误差:
J ( θ ) = 1 2 ∑ ( h θ ( x ( i ) − y ( i ) ) ) 2 J(θ)=\frac{1}{2}∑(h_\theta(x^{(i)}-y^{(i)}))^2 J(θ)=21(hθ(x(i)y(i)))2
最终求得: a r g m i n j ( θ ) argmin j(\theta) argminj(θ)

理论

为什么用均方误差?

极大似然估计

前提:假设误差独立同分布,且服从高斯分布。
则可以利用极大似然估计去拟合误差
最大似然估计的结果为:

l ( θ ) = l o g L ( θ ) = l o g ∏ i = 1 n 1 2 π σ e − ( y ( i ) − θ T x ( i ) ) 2 2 σ 2 = ∑ i = 1 n l o g 1 2 π σ e − ( y ( i ) − θ T x ( i ) ) 2 2 σ 2 = n l o g 1 2 π σ − 1 σ 2 ⋅ 1 2 ∑ i = 1 n ( y ( i ) − θ T x ( i ) ) 2 l(\theta)=logL(θ) \\= log\prod_{i=1}^n\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(y^{(i)}-\theta^Tx^{(i)})^2}{2\sigma^2}} \\=\sum_{i=1}^nlog\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(y^{(i)}-\theta^Tx^{(i)})^2}{2\sigma^2}} \\=nlog\frac{1}{\sqrt{2\pi}\sigma}-\frac{1}{\sigma^2}\cdot\frac{1}{2}\sum_{i=1}^n(y^{(i)}-\theta^Tx^{(i)})^2 l(θ)=logL(θ)=logi=1n2π σ1e2σ2(y(i)θTx(i))2=i=1nlog2π σ1e2σ2(y(i)θTx(i))2=nlog2π σ1σ2121i=1n(y(i)θTx(i))2最大
即求 1 2 ∑ i = 1 n ( y ( i ) − θ T x ( i ) ) 2 \frac{1}{2}\sum_{i=1}^n(y^{(i)}-\theta^Tx^{(i)})^2 21i=1n(y(i)θTx(i))2最小。

优化方法

  1. 梯度下降
  2. 最小二乘法
    矩阵求解
    掌握矩阵求导
  3. 牛顿法
    数值法求导
  4. 牛牛顿法

评价指标

  • 均方误差
  • 均方根误差
  • 平均绝对误差
  • R 2 R^2 R2

程序

利用sklearn.linear_model实现

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值