模型评价指标
- 准确率
- 召回率(TP/(TP+FN) recall
- 查准率(TP/(TP+FP)-预测实际均正/(预测实际均正+预测正实际负)precision
- f1_score(y_true,y_pred)#计算F1值(精确率和召回率的加权调和平均数,综合了两者的性能指标)21𝑝𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛+1𝑟𝑒𝑐𝑎𝑙𝑙
混淆矩阵 |
预测值 | ||
Positive |
Negative | ||
真实值 |
Positive |
TP |
FN |
Negative |
FP |
TN |
特征工程
- 特征构造
常见特征:统计量特征(计数,求和,比例,标准差等),时间特征(相对时间和绝对时间,节假日双休日),空间特征(分箱,分布编码等)
处理方法:非线性变换(log/平方等);特征组合;特征交叉
- 特征选择
过滤式-先特征选择,再训练学习器-方法有Relief,方差选择,相关系数,互信息
在机器学习和特征选择中,互信息常被用作评估特征与目标变量之间的相关性,以确定哪些特征对于预测目标变量是最有价值的。较高的互信息表示特征与目标变量之间存在较强的相关性。
使用互信息进行特征选择的一般步骤如下:
- 计算每个特征与目标变量之间的互信息。
- 根据互信息的大小对特征进行排序,选择具有较高互信息的特征。
- 可以设置一个阈值或选择固定数量的特征,根据排序结果选择相关性较高的特征。
- 使用选定的特征进行建模和训练。
可用scikit-learn库中的mutual_info_classif(用于分类问题)和mutual_info_regression(用于回归问题)函数,进行互信息计算。
包裹式-直接把最终将要使用的学习器的性能作为特征子集的评价准则-方法有LVM
嵌入式-结合前两者,学习器训练过程中自动进行了特征选择-Lasso
- 降维-PCA LDA LCA 特征选择
代码中的一些函数
- zeros(9) # 创建一个长度为 9 的零数组
- map(function,iterable),map()函数用于对可迭代对象【如列表 元组等】中的每一个元素应用指定的函数,function是一个函数,iterable是一个可迭代对象。
- .map()方法是对 . 前的对象应用映射操作,即根据括号中的函数规则将原始值转换为新的值
- mean()计算均值
- concat()函数用于沿指定轴(行或列)将多个DataFrame对象或Series对象进行拼接
- axis参数用于指定连接操作沿哪个轴进行axis=0按行连接axis=1按列连接
uuid |
eid |
udmap |
common_ts |
x1 |
x2 |
x3 |
x4 |
x5 |
x6 |
x7 |
x8 |
0 |
26 |
{"key3":"67804","key2":"650"} |
1689673468244 |
4 |
0 |
41 |
107 |
206 |
1 |
0 |
1 |
- 题目分析
- uuid为样本唯一标识,eid为访问行为ID,udmap为行为属性,其中的key1到key9表示不同的行为属性,如项目名、项目id等相关字段,common_ts为应用访问记录发生时间(毫秒时间戳),其余字段x1至x8为用户相关的属性,为匿名处理字段。target字段为预测目标,即是否为新增用户。
- 新增时间特征 天 月份的时间特征 结果升
- 新增时间特征dayofweek 结果升
决策树(一般构造二叉树)
决策树的参数包括以下几个常见的参数:
- 最大深度(max_depth):指定决策树的最大深度,控制树的复杂程度和过拟合的风险。较大的最大深度可以提高模型的学习能力,但也容易造成过拟合。
- 最小样本划分数(min_samples_split):指定进行节点划分所需的最小样本数。如果某个节点的样本数量小于该值,则不再进行划分。增大该值可以限制决策树的生长,防止过拟合。
- 最小叶子节点样本数(min_samples_leaf):指定叶子节点上所需的最小样本数。如果叶子节点的样本数量小于该值,则不再进行进一步划分。增大该值可以限制决策树的生长,防止过拟合。
- 最大特征数(max_features):指定在每个节点上用于划分的特征数。可以是一个固定值,也可以是一个百分比。较小的特征数可以降低决策树的复杂度,防止过拟合。
- 分裂标准(criterion):指定用于衡量节点纯度或分裂质量的标准,常见的有基尼系数(gini)和信息增益(entropy)。
基尼系数 用来衡量不确定性。选择基尼系数最小的作为决策树节点,即下一步分类的依据,以此循环。以基尼系数为核心的是CART决策树。
如果决策树过于复杂,可以增加最大深度、最小样本划分数和最小叶子节点样本数等参数来限制其生长;如果决策树欠拟合,可以减小这些参数或调整分裂标准等来增加模型的复杂度。选择适当的参数可以帮助平衡模型的复杂度和性能。