Part2-Chapter8-预测数值型数据:回归-原理

回归分析用于预测数值型数据,主要包括线性回归和局部加权回归。线性回归通过最小化预测值与真实值的平方和来确定权重,而局部加权回归则引入权重,对附近数据点赋予不同影响,常使用高斯核来计算权重。过高或过低的权重参数可能导致欠拟合或过拟合。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

回归的目的是通过计算来预测数值型数据,本章讨论的是线性回归和局部加权回归。这两种方法由三部分构成:数据矩阵X和结果矩阵Y:
在这里插入图片描述
回归系数矩阵:
在这里插入图片描述
结果矩阵:
在这里插入图片描述
对线性回归,找出w的方法是,找到一个w,使得预测结果u与真实结果y的差值最小。因为差值有正 有负,因此我们用平方和最小的方式:
在这里插入图片描述
用矩阵表示为:
在这里插入图片描述
求其最小值,则对其求导,并令结果为0,推出:
在这里插入图片描述
绘制结果为:
在这里插入图片描述
蓝色为数据点,红线为预测回归方程。

因为线性回归要求误差方差最小,因此当模型本身欠拟合时,预测结果将不能很好地符合实际。因此我们有时候允许估计有一定的误差,从而得到更好的预测结果。其中的一个方法是局部加权线性回归。在该方法中,我们给待预测点附近的每个点赋予一定的权重。与kNN一样,这种算法每次预测均需要事先选取出对应的数据子集。该算法解出回归系数W的形式如下:
在这里插入图片描述
这里的W和w不同,是用来给待测点附近的点赋予权重。计算W的方法很多,但最常用的是高斯核,即:

最终结果为:
在这里插入图片描述
可以看出,k=1时和线性回归一致;k=0.01时有很好的拟合性;而k=0.001时则出现了严重的过拟合现象。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值