特征工程-数据降维

本文探讨了特征工程中的关键步骤——数据降维,包括其重要性,如避免维度灾难、减少噪声和提高效率。介绍了数据降维的两种主要方法:特征提取和特征选择,并分别阐述了它们的原理和应用场景,如PCA、非负矩阵分解和局部线性嵌入等。特征提取主要针对数值型数据,而特征选择适用于数值型和非数值型数据。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

特征工程

1、数据降维
2、特征提取
3、特征选择

一、数据降维

一、特征工程

​ 特征工程是一个很大的概念,实在找不到合适的词,语句来描述特征工程。为了直观的学习特征工程,还是从特征工程处理的流程来窥视特征工程为何物?

​ 1、数据的生成,这部分严格意义上说不属于特征工程范畴。因为数据都没有的话,谈何学习,但是数据即是特征,如何生成数据也是特征生成的过程。在工程上,数据的生成是非常重要的部分,也称特征构建。

​ 2、数据预处理,缺损值,特征编码,归一化/标准化,数据清洗(异常点)

​ 3、特征提取和选择

一般来说,特征工程之后的特征作为模型学习的输入。在特征工程中,特征提取和特征选择一般通过模型去学习,所以特征工程本身就涉及到模型。这里,笔者理解特征工程为特征表示,是对数据的一种表示。其中,数据生成和数据预处理比较泛,没有相对严格的处理方式,经验性较强。特征提取和特征选择则有非常多成熟的方法,一般来讲特征提取和特征选择是一个数据降维的过程。

二、数据降维

​ 数据降维有以下几点好处:

​ 1、避免维度灾难,导致算法失效,或者时间复杂度高

​ 2、避免高维数据中引入的噪声,防止过拟合

​ 3、压缩存储,可视化分析

​ 数据降维的方法有特征提取特征选择两种方式。特征提取理论上是一种坐标变换,将原始数据特征上进行线性非线性变换到目标空间进行表示;而特征选择则是直接在原始数据特征上进行选择,选出的特征集是原始特征集的子集。特征提取的降维方法可以根据线性非线性进行划分(非线性降维一般是在线性降维方法上加上核技巧)。特征选择的方法可以分为过滤式封装式</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值