特征归一化
为了消除数据特征之间的量纲影响,我们需要对特征进行归一化处理,使得 不同指标之间具有可比性。例如,分析一个人的身高和体重对健康的影响,如果 使用米(m)和千克(kg)作为单位,那么身高特征会在1.6~1.8m的数值范围 内,体重特征会在50 ~ 100kg的范围内,分析出来的结果显然会倾向于数值差别比 较大的体重特征。想要得到更为准确的结果,就需要进行特征归一化 (Normalization)处理,使各指标处于同一数值量级,以便进行分析。
为什么需要对数值类型的特征做归一化?
对数值类型的特征做归一化可以将所有的特征都统一到一个大致相同的数值 区间内。最常用的方法主要有以下两种。
-
线性函数归一化(Min-Max Scaling)。它对原始数据进行线性变换,使 结果映射到[0, 1]的范围,实现对原始数据的等比缩放。归一化公式如下:

其中X为原始数据,Xmax、Xmin分别为数据最大值和最小值。 -
零均值归一化(Z-Score Normalization)。它会将原始数据映射到均值为 0、标准差为1的分布上。具体来说,假设原始特征的均值为μ、标准差为σ,那么 归一化公式定义为

为什么需要对数值型特征做归一化呢?我们不妨借助随机梯度下降的实例来
说明归一化的重要性。假设有两种数值型特征,x1的取值范围为 [0, 10],x2的取值 范围为[0,

特征归一化是为了消除数据特征间的量纲影响,确保不同指标的可比性。常用的归一化方法有线性函数归一化(Min-Max Scaling)和零均值归一化(Z-Score Normalization)。归一化有助于随机梯度下降等优化算法,提高模型训练效率。但并非所有模型都需要归一化,如决策树在构建时不依赖特征的归一化。
最低0.47元/天 解锁文章
3万+

被折叠的 条评论
为什么被折叠?



