机器学习--特征缩放/均值归一化

本文介绍特征缩放(featurescaling)和均值归一化(meannormalization)的概念,这两种方法可以帮助梯度下降算法更快地收敛。特征缩放使不同特征处于相近范围,而均值归一化则令特征值具有零平均值。

特征缩放(feature scaling)

其中,特征缩放(feature scaling)大致的思路是这样的:梯度下降算法中,在有多个特征的情况下,如果你能确保这些不同的特征都处在一个相近的范围,这样梯度下降法就能更快地收敛。

举个例子来说明:

x1=size(02000)feet2
x2=(15)

假如你有一个具有两个特征的问题,其中x1是房屋面积大小,它的取值在0到2000之间;x2是卧室的数量,可能这个值的取值范围在1到5之间。其代价函数J(θ)是一个关于参数θ0θ1θ2的函数。但这里我们暂时不考虑θ0并假想一个函数的变量只有θ1θ2

如果x1的取值范围远远大于x2的取值范围的话,那么最终画出来的代价函数J(θ)的轮廓图就会呈现出这样一种非常偏斜并且椭圆的形状:

这里写图片描述

如果你用这个代价函数来运行梯度下降的话,你要得到梯度值最终可能需要花很长一段时间,并且可能会来回波动,然后会经过很长时间最终才收敛到全局最小值。

这里写图片描述

事实上如果这些轮廓再被放大一些的话,如果你画的再夸张一些把它画的更细更长,那么可能情况会更糟糕,梯度下降的过程可能更加缓慢,需要花更长的时间反复来回振荡,最终才找到一条正确通往全局最小值的路。

在这样的情况下一种有效的方法是进行特征缩放(feature scaling)。

具体来说把特征

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值