Stanford——机器学习中的特征缩放理解(Features Scaling)

本文探讨了梯度下降法在不同特征缩放情况下的表现。通过对比分析,展示了特征缩放对于减少迭代次数、加快算法收敛速度的重要性,并给出了特征缩放的具体公式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


已知梯度下降的方向为偏导数方向,即为该点的切线(面)方向。以上两张图分别是未经特征缩放处理和经特征缩放处理过的特征图像,由图1可知,由于图像为椭圆形,因此从外面的圆往里面梯度下降时,梯度下降的方向都会改变,未经缩放处理的梯度下降曲曲折折迭代较多次才能从出发点A到目标点B,而图2中由于是多个同心圆(近似),所以每次梯度下降都大致在一个方向,自然迭代次数就少的多。该过程可用数学推导,证明特征缩放的确可以加快梯度下降速度。 

特征缩放公式: θ=θaveragemaxminθ∗=θ−averagemax−min θ=θmaxθ∗=θmax , 其中 θθ 为待缩放特征,average为 θθ 的平均值,max为最大的 θθ ,min为最小 θθ 。一般将特征缩放到[-1, 1]区间,也可以是[0, 2],也可以是[-3,3]或[-0.2,0.2],但一最好不要太大或太小,如[-1000, 1000]、[-0.001,0.001]都是不合适缩放区间。可能和计算机缩放时数据损失(如double型转换成float型就会有精度损失)有关。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值