机器学习基石-09-2-Linear Regression Algorithm

本文深入探讨了线性回归算法,通过将误差函数Ein(w)转化为矩阵形式,阐述了寻找误差最小值的过程。分析了在梯度为0时的最低点,并解释了当w为一维和向量时如何求解。讨论了矩阵可逆与不可逆情况下,利用伪逆求解线性回归参数w的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

将Ein(w)写成矩阵的形式


上面的重要步骤是把连加的平方和写成了向量内积的平方。其中x=(x0,x1,x2,……xd)总共d+1个变量

任务变成了求解上面结果的最小值


可以先看一下Ein(w)和w之间的图形:


哪里是最低点呢?在最低点上不管往哪个方向移动都不会产生更低的Ein,也就是梯度要是0。


梯度:对函数在每个方向上(不同的w,w0,w1…,wd)做偏微分,然后把w带进去满足梯度都是0。

所以新的任务就是:找到使得梯度为0的w。



梯度


把之前的矩阵形式再改回向量内积平方的形式。其中,向量的平方=向量模的平方。

1.当w是一维时,


Ein(w)就变成了一元二次方程,很容易就可以得到w的值

2.当w是向量时,


任务就变成了下面的:


可逆时,

是(d+1)*(d+1)维,是N*(d+1)维。一般地,自由度是d,资料量data N远远大于d+1,所以矩阵可逆。

不可逆时,直接使用现成的pseudo-inverse x来计算w(LIN),这时会有很多组解。



linear regression algorithm线性回归算法


FUN TIME


其中,直接带进去就可以得到答案。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值