线性回归的损失函数为什么使用最小化均方误差

本文详细介绍了最小二乘问题及其在线性回归中的应用,包括数学定义、求解方法及通过最大似然估计推导损失函数的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 最小二乘问题的定义:
    没有约束条件,目标函数是若干二次项的和,每一项的形式如aTixbiaiTx−bi,具体形式如下:
    minimizef(x)=i=1k(aTixbi)2minimizef(x)=∑i=1k(aiTx−bi)2

    其中,Akn,aTiA∈ℜk∗n,aiT是A的行向量,向量xnx∈ℜn是优化变量
    最优解是x=(ATA)1ATBx=(ATA)−1ATB (求解过程见上一篇博文)
  2. 线性回归的损失函数costfunction
    在线性回归问题中,假设模型为h(θ)=xTθ+bh(θ)=xTθ+b,其中xx为输入,b为偏置项;
  3. 损失函数的由来
    假设模型h(θ)与实际值yy误差ϵ服从正态分布(根据中心极限定理,多种未考虑到的其他因素的和符合正太分布),即:
    h(θ)y=ϵN(0,σ2)h(θ)−y=ϵ∈N(0,σ2)

    则根据输入样本xixi可以计算出误差ϵiϵi的概率为:
    p(ϵi)=12πσexpϵ2i2σ2p(ϵi)=12πσexp−ϵi22σ2

    则可以得出似然公式:
    l(θ)=i=1mp(ϵi)l(θ)=∏i=1mp(ϵi)

    其中m为样本总数。则有以上公式可以写出log最大似然,即对l(θ)l(θ)整体取log,则:
    L(θ)=logl(θ)=log(i=1mp(ϵi))=mlog12πσ+im(ϵ2i2σ2)L(θ)=logl(θ)=log(∏i=1mp(ϵi))=mlog12πσ+∑im(−ϵi22σ2)

    则最大化似然公式L(θ)L(θ)相当于最小化f(θ)=12miϵ2i=12mi(xTiθyi)2f(θ)=12∑imϵi2=12∑im(xiTθ−yi)2,则变换为最小二乘问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

王大阳

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值