看了很多高深的算法之后,感觉还是看不懂哦,今天又来代大家复习基本功,一个是特征工程,另一个是特征选择。都是两个非常非常重要的东西,先定两个基调,所谓的特征工程就是数据预处理,所谓的特征选择就是变量筛选,这样大家就不觉得这么难了。
Feature engineering improves the performance of the machine learning model by selecting the right features for the model and preparing the features in a way that is suitable for the machine learning model.
并且也可以将特征选择看作是特征工程的一部分,概念上不纠结,知道是这么回事就好,同时特征工程的整个过程也要结合具体问题具体分析,需要经验,需要背景知识,整个过程也是没有金标准的。可以说这是一项科学与艺术相结合的工作。
特征工程
特征工程又称特征提取或特征发现是使用领域知识从原始数据中提取特征的过程。这就涉及到一系列的操作,主要的目的就是将原始数据处理成可以直接喂给算法的数据特征。比如有些算法要求数据不能有缺失,你就得处理缺失值吧,比如有些算法需要正态数据,你就得进行数据转换吧,这些都是特征工程。
特征工程具体的操作包括
基础的操作:像One-hot encoding(哑变量转换),log转换,Outlier handling离群值处理,简单插补,Binning连续变量分箱都暂时略过(之后给大家写)。今天我们看下面的内容
1.插补
- 随机森林插补
随机森林插补缺失应该是大家的首选方法,这个方法既可以处理连续特征又可以处理分类特征,而且对离群值和非线性数据的适合性都较好,其大概流程如下:
首先是将缺失的连续值用变量均值,分类值用众数插补好,然后将数据切位2部分,一部分是完整数据集(training set),一部分是插补后的数据集 (prediction set),然后用完整数据集训练随机森林模型,在插补后的数据集中更新缺失值,这样迭代,直到插补值稳定或者达到最大迭