浅谈特征选择和特征抽取

本文介绍了机器学习中常见的降维处理方法——特征选择与特征抽取的区别。特征抽取通过组合现有特征创建新的特征子集,常用方法包括PCA、LDA等;而特征选择则是从所有特征中挑选出更具信息量的子集。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习中我们经常会遇到维数过高的问题,会形成“维灾难”,所以经常会有降维的处理。

常用的降维分为两类:特征选择和特征抽取

那么这两者之间有什么区别呢?

 

      特征抽取(Feature Extraction):Creatting a subset of new features by combinations of the exsiting features.也就是说,特征抽取后的新特征是原来特征的一个映射。特征抽取经常用到一些机器学习的方法:PCA、LDA、SVD、流形学习等等。

      特征选择(Feature Selection):choosing a subset of all the features(the ones more informative)。也就是说,特征选择后的特征是原来特征的一个子集。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值