【机器学习基础】Least squares最小二乘法

最小二乘法是机器学习中线性回归的基础,通过对点A(1,1)、B(2,2)、C(3,2)的拟合,展示了解决线性方程组的过程。通过构建矩阵方程,求得斜率D和截距C的公式。引入均方差作为损失函数,当其梯度为0时找到最优解,进一步证实了之前的矩阵方程是寻找最优直线参数的依据。" 138383139,21690196,PyCharm连接云GPU服务器(AutoDL)深度学习实践,"['pycharm', '服务器', '深度学习', 'GPU租用', '云算力']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最小二乘法是求线性回归问题最基础的方法之一,最近花了一点时间深入研究了一下,然后简单的整理一下思路。

先从一个简单的例子开始,对于点A(1,1),B(2,2),C(3,2)
拟合出一条直线 y = C + D x

这里写图片描述

首先我们把这三个点带入直线方程,写成矩阵的形式。
这里写图片描述

现在得到一个矩阵方程
这里写图片描述

这里写图片描述

通过矩阵我们得到了两个方程,两个变量对应两个方程组,这样我们可以分别解出这两个方程组,对于斜率D,我们可以得到

这里写图片描述

通过观察,我们继续对D进行变形,
这里写图片描述

这样我们就得到了求解斜率的公式。同理,我们也可以得到C的公式。

本来推到这里已经结束了,但是如果仔细思考一下,会发现哪里有些不对劲,对于给定的直线方程,这三个点都没办法在这条直线上,那我们为什么还要将点的坐标带入方程里去呢?

下面是Least Squares的核心思想,我们首先引入均方差(Square Loss)这个概念。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值