特征工程-学习笔记

本文介绍了特征工程中的关键步骤,包括异常值处理如箱线图分析、BOX-COX转换、长尾截断;特征归一化和标准化;数据分桶策略;缺失值处理方法如不处理、删除和插值补全;以及特征构造、筛选和降维技术。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


特征工程是比赛中最至关重要的的一块,对成绩的影响很大,发现几个magic feature就足以获得非常不错的排名,但是过程非常艰辛或者就像中奖一样。看了大佬的分析过程,感觉大佬不愧是大佬。

异常值处理

通过箱线图(或 3-Sigma)分析删除异常值

###转自https://tianchi.aliyun.com/notebook-ai/detail?spm=5176.12586969.1002.9.1cd8593aD0teWG&postId=95501

def outliers_proc(data, col_name, scale=3):
    """
    用于清洗异常值,默认用 box_plot(scale=3)进行清洗
    :param data: 接收 pandas 数据格式
    :param col_name: pandas 列名
    :param scale: 尺度
    :return:
    """

    def box_plot_outliers(data_ser, box_scale):
        """
        利用箱线图去除异常值
        :param data_ser: 接收 pandas.Series 数据格式
        :param box_scale: 箱线图尺度,
        :return:
        """
        iqr = box_scale * (data_ser.quantile(0.75) - data_ser.quantile(0.25))
        val_low = data_ser.quantile(0.25) - iqr
        val_up = data_ser.quantile(0.75) + iqr
        rule_low = (data_ser < val_low)
        rule_up = (data_ser > val_up)
        return (rule_low, rule_up), (val_low, val_up)

    data_n = data.copy()
    data_series = data_n[col_name]
    rule, value = box_plot_outliers(data_series, box_scale=scale)
    index = np.arange(data_series.shape[0])[rule[0] | rule[1]]
    print("Delete number is: {}".format(len(index)))
    data_n = data_n.drop(index)
    data_n.reset_index(drop=True, inplace=True)
    print("Now column number is: {}".format(data_n.shape[0]))
    index_low = np.arange(data_series.shape[0])[rule[0]]
    outliers = data_series.iloc[index_low]
    print("Description of data less than the lower bound is:")
    print(pd.Series(outliers).describe())
    index_up = np.arange(data_series.shape[0])[rule[1]]
    outliers = data_series.iloc[index_up]
    print("Description of data larger than the upper bound is:")
    print(pd.Series(outliers).describe())
    
    fig, ax = plt.subplots(1, 2, figsize=(10, 7))
    sns.boxplot(y=data[col_name], data=data, palette="Set1", ax=ax[0])
    sns.boxplot(y=data_n[col_name], data=data_n, palette="Set1", ax=ax[1])
    return data_n

BOX-COX 转换(处理有偏分布)

长尾截断

特征归一化/标准化

标准化(转换为标准正态分布)

归一化(转换到 [0,1] 区间)

针对幂律分布,可以采用公式:

log ⁡ ( 1 − x 1 + m e d i a n ) \log(\frac{1-x}{1+median}) log(1+median1x)

数据分桶

等频分桶

等距分桶

Best-KS 分桶(类似利用基尼指数进行二分类)

卡方分桶

缺失值处理

不处理

某些算法可以直接使用含有缺失值的情况,如决策树算法可以直接使用含有缺失值的数据。

优点:直接使用原始数据,排除了人工处理缺失值带来的信息损失。
缺点:只有少量的算法支持这种方式。

删除(缺失数据太多)

优点:简单、高效。

缺点:如果样本中的缺失值较少,则直接丢弃样本会损失大量的有效信息。这是对信息的极大浪费。

插值补全

用最可能的值来插补缺失值。这也是在实际工程中应用最广泛的技术。

优点:保留了原始数据
缺点:计算复杂,而且当插补的值估计不准确时,会对后续的模型引入额外的误差。

包括均值/中位数/众数/建模预测/多重插补/压缩感知补全/矩阵补全等

分箱,缺失值一个箱

特征构造

构造统计量特征,报告计数、求和、比例、标准差等;
时间特征,包括相对时间和绝对时间,节假日,双休日等;
地理信息,包括分箱,分布编码等方法;
非线性变换,包括 log/ 平方/ 根号等;
特征组合,特征交叉;
仁者见仁,智者见智。

特征筛选

过滤式(filter)
先对数据进行特征选择,然后在训练学习器,常见的方法有 Relief/方差选择发/相关系数法/卡方检验法/互信息法;
包裹式(wrapper)(使用包mlxtend)

from mlxtend.feature_selection import SequentialFeatureSelector as SFS
from sklearn.linear_model import LinearRegression
sfs = SFS(LinearRegression(),
           k_features=10,
           forward=True,
           floating=False,
           scoring = 'r2',
           cv = 0)
x = data.drop(['price'], axis=1)
x = x.fillna(0)
y = data['price']
sfs.fit(x, y)
sfs.k_feature_names_ 

# 画出来,可以看到边际效益
from mlxtend.plotting import plot_sequential_feature_selection as plot_sfs
import matplotlib.pyplot as plt
fig1 = plot_sfs(sfs.get_metric_dict(), kind='std_dev')
plt.grid()
plt.show()

直接把最终将要使用的学习器的性能作为特征子集的评价准则,常见方法有 LVM(Las Vegas Wrapper) ;
嵌入式(embedding)
结合过滤式和包裹式,学习器训练过程中自动进行了特征选择,常见的有 lasso 回归;

降维

PCA/ LDA/ ICA
特征选择也是一种降维

这个寒假太长了,我好想丧失了动力。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值