吴恩达——机器学习 局部加权回归(Loess)

本文对比了线性回归与局部加权回归(Loess),解释了后者如何通过更注重临近点来解决欠拟合问题,并指出其在大数据集上的计算代价。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

先介绍参数学习方法和非参数学习方法:

参数学习方法:有固定数目的参数, 比如线性回归和逻辑回归中的\theta

非参数学习方法:参数的数目会随着训练集的大小呈线性增长,比如局部加权回归

局部加权回归(Locally Weighted Regression, Loess)

如果有一个类似下图的数据集(图片来源:https://blog.youkuaiyun.com/qsczse943062710/article/details/55657700):

采用线性回归会出现欠拟合(underfitting),这种情况下,Loess可以很好地解决这个问题。

与线性回归对比:

线性回归的目标是最小化\sum \left ( y^{\left ( i \right )} -\theta ^{T}x^{\left ( i \right )}\right )^{2}

Loess的目标是最小化\sum \omega ^{\left ( i \right )}\left ( y^{\left ( i \right )} -\theta ^{T}x^{\left ( i \right )}\right )^{2}, 其中\omega ^{\left ( i \right )}=exp\left ( - \frac{\left ( x^{\left ( i \right )}-x \right )^{2}}{2\iota ^{2}} \right )

\omega的作用是使预测点的临近点在最小化目标函数中贡献大:

\begin{vmatrix} x^{\left ( i \right )}-x \end{vmatrix} small \Rightarrow \omega ^{\left ( i \right )}\approx 1

\begin{vmatrix} x^{\left ( i \right )}-x \end{vmatrix}large\Rightarrow \omega ^{\left ( i \right )}\approx 0

Loess更加注重临近点的精确拟合。

\iota控制全职随距离下降的速率。

缺点:并不能解决欠拟合和过拟合问题;当数据量很大时,要对每个带预测数据拟合一次,代价大

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值