特征选择介绍
1.特征选择,顾名思义,就是要选择一部分的特征用于训练,而不使用全部的特征。那么为什么要进行特征选择?
- 有一些特征之间的相关度太高了,会大量消耗计算资源。
- 有一些特征可能会对预测结果有负影响。
2.特征选择和降维一样吗?
不一样。特征选择是剔除一部分冗余的特征,剔除的这些特征和预测的关系很小。而降维本质上是将特征映射到另一个低维空间中,但是保留了数据的大部分信息。降维后的特征发生了改变。
3.特征选择的方法有哪些?
①过滤式特征选择。这种方法首先计算每个特征和预测结果的相关程度,然后按照从大到小的顺序排列,最后只留下相关度最高的n个特征。可以采用personer相关系数计算相关度,计算公式如下:
ρX,Y=cov{
X,Y}σXσY=E[(X−μX)(Y−μY)]σXσY=E(XY)−E(X)E(Y)E(X2)−E2(X)E(Y2)−E2(Y) \rho_{X,Y}=\frac{cov\{X,Y\}}{\sigma_X \sigma_Y}=\frac{E[(X-\mu_X)(Y-\mu_Y)]}{\sigma_X \sigma_Y}=\frac{E(XY)-E(X)E(Y)}{\sqrt{E(X^2)-E^2(X)} \sqrt{E(Y^2)-E^2(Y)}} ρX,Y=σXσ