变量的编码方式及特征归一化

本文探讨了机器学习中离散特征的编码,包括独热编码和标签编码的适用场景。独热编码避免了离散特征的偏序性,而标签编码则适用于有序特征。接着介绍了特征归一化的重要性,如提升模型收敛速度、精度以及在深度学习中防止梯度爆炸。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

变量的编码方式及特征归一化

变量的编码方式之独热编码和标签编码

机器学习中,有很多特征的数据不总是连续的,也有可能是离散型分类值, 大部分的模型都是基于数学运算,所以字串资料是无法运算的,需要我们对它们进行编码,常用的方式有独热编码(One-Hot Encoding)和标签编码(LabelEncoder)。

离散特征的编码分为两种情况:
1、离散特征的取值之间没有大小的意义,比如color:[red,blue],那么就使用one-hot编码
2、离散特征的取值有大小的意义,比如size:[X,XL,XXL],那么就使用数值的映射{X:1,XL:2,XXL:3}

使用pandas可以很方便的对离散型特征进行one-hot编码

独热编码即 One-Hot 编码,又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都由他独立的寄存器位,并且在任意时候,其中只有一位有效。
对于每一个特征,如果它有m个可能值,那么经过独热编码后,就变成了m个二元特征(如成绩这个特征有好、中、差变成one-hot就是100, 010, 001)。并且,这些特征互斥,每次只有一个激活。因此,数据会变成稀疏的。再比如说一个特征为颜色,他一共有三个值,分别为红,蓝,绿,按照正常想法,我们可能认为,令红色=0,蓝色=1,绿色=2,这样对数据进行了编码,但是,如果把这些数据放到需要计算距离的或者其他模型中,模型会认为重要性是绿色>蓝色>红

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值