1.1.1. Ordinary Least Squares 普通最小二乘法

这篇博客详细介绍了回归模型中的普通最小二乘法,讨论了经验风险和期望风险函数的概念。重点讲述了结构风险最小化策略,特别是针对样本数量有限时防止过拟合的岭回归及其正则化效果,提到了sklearn库中的Ridge和RidgeCV模型应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

(一)回归模型

这里写图片描述

1.常见损失函数

这里写图片描述

2.期望风险函数:这是真实的风险,由于不知道联合分布P(X,Y),因此无法计算

这里写图片描述

3.经验风险函数

注:1.训练数据样本的平均损失

2.训练数据样本越多(N),越逼近期望风险函数

这里写图片描述

(二)最小经验风险函数:训练样本数目固定,求w使得经验风险最小

这里写图片描述

例子:当样本数目很大时,经验风险可以很好的逼近期望风险。

sklearn.linear_model.linearRegression

1.使用的经验风险函数(经验损失函数)

这里写图片描述

2.使用的损失函数(平方损失)

这里写图片描述
这里写图片描述

(三)结构风险最小化:训练样本数目固定,经验风险最小化求到w,此时问题:当样本数目很大时,经验风险可以很好的逼近期望风险。当样本数目有限偏少,会产生过拟合(模型复杂度,权重个数多),为此需要对权重做处理,惩罚项,正则化权重。

这里写图片描述

例子:岭回归,Ridge(阿尔法或lamda固定求出w)、RidgeCV(多个阿尔法或lamda中求出多个w然后选择最好的一个w),正则项为||w||的L2范数,lamda(阿尔法a)越大,||w||的L2范数越小,反之,也是一样。

sklearn.linear_model.Ridge

sklearn.linear_model.RidgeCV

1.使用的结构风险函数(经验损失函数+正则项)

这里写图片描述

2.使用的损失函数(平方损失),正则化项函数(L2范数)

这里写图片描述
这里写图片描述
此时不是风险最小化

注:1.Ridge(alpha数)选择最好的w,RidgeCV(alphas数组)选择最好的阿尔法和w

2.Ridge在不同阿尔法下的w大小

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值