Andrew 机器学习课程——特征缩放

本文介绍如何通过特征缩放来优化梯度下降算法。当特征取值范围不一致时,会导致代价函数的等值线变得瘦高,使得梯度下降过程缓慢且不稳定。通过特征缩放可以将不同特征的取值范围调整到相近水平,从而加速梯度下降过程,提高机器学习模型的训练效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

假设有两个特征,也就是x1,x2。当x1的取值范围远比x2的取值范围大的多的时候,代价函数J会变成一个特别瘦高的等值线图

像。

此时梯度下降会反复震荡,变得特别特别缓慢,可能需要很长的时间才能达到最优点。所以使用特征缩放,将它们的范围按比例缩放成近似成一个圆 ,就可以解决这个问题了。



如果将x1,x2按照区间范围缩放。像图中的例子,如果将房子的尺寸先预先除以它的定义域范围,将卧室数也除以它的定义域范围,那么最后新得到得x1,x2得变化范围其实是一样的,两个的参数变化范围也是一样,最后形成一个圆形,这样就不会来回振荡,减少了梯度下降的时间,提高训练速度。

特征缩放是一个优化梯度下降的小方法。

目的就是让变量的取值范围尽量在-1~1之间,太大了会影响下降的速度。

还可以用“均值归一化”方法控制变量的范围在-0.5~+0.5之间

具体操作是将新的变量x1赋值为当前x1-均值/原范围大小。

最后,特征缩放的作用就是让特征范围变为差不多。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值