模型评估与选择
这篇文章是学习了2周后,对模型评估与选择的总结,对应:
- 第一周:(04)1.4 机器学习算法的组成部分
- 第一周:(08)1.6 线性回归模型——模型选择
- 第二周:(04)2.4 不平衡数据分类学习
- 第二周:(05)2.5 分类模型的评价
- 《机器学习》(西瓜书):第2章 模型评估与选择
- 维基百科(en):“Precision and recall” 词条
- 维基百科(en):“Receiver operating characteristic” 词条
- 维基百科(en):“F1 score” 词条
文章标题排版以西瓜书为参考。另外公式比较多,app会乱码。请在浏览器或电脑查看。
1 经验误差(empirical error)与过拟合(overfitting)
错误率(error rate):错误的样本数占样本总数的比例。
即在m个样本中有a个样本分类错误,则:
- 错误率(errpr rate): E = a / m
- 精度(accuracy):1 - a / m
误差(error):实际预测输出与样本的真实输出之间的差异。
训练误差(training error)或经验误差(empirical error):训练集(training set)上的误差。
泛化误差(generalization error):新样本上的误差。
过拟合(overfitting):把训练样本自身的一些特点当成所有潜在样本都会具有的一般性质,导致泛化性能下降。
欠拟合(underfitting):对训练样本的一般性质尚未学好。
2 评估方法(evaluation)
要评估,需使用一个“测试集”(testing set)来测试学习器对新样本的判别能力,然后以测试集上的“测试误差”(testing error)作为泛化误差的近似。
测试集应尽可能与训练集互斥。
假定,一个包含m个样例的数据集D,从中产生训练集S和测试集T,则:
2.1 留出法(hold-out)
留出法:直接将数据集D分割成两个互斥集合,即:
分层采样(stratified sampling):保留类别比例的采样方式。
单次使用留出法得到的估计结果往往不够稳定可靠,在使用留出法时,一把要采用若干次随机划分、重复进行实验评估后取平均值作为留出法的结果。
留出法的问题:
如果S较大,结果可能不够稳定准确;
如果S较小,会降低评估结果的保真性(fidelity)。
这个问题没有完美的解决方案,常见做法是将大约 2/3 ~ 4/5 的样本用于训练。
2.2 k折交叉验证法(k-fold cross validation)
k折交叉验证法:将D分割成k个大小相似的互斥子集,即:
然后,每次用k-1个子集的并集作为训练集,余下的子集作为测试集;进行k次训练和测试,最终返回k个测试结果的均值。
常见k的取值:5,10,20等
为减少因样本划分不同而引入的差别,k折交叉验证通常要随机使用不同的划分重复p次,最终评估结果是p次k折交叉验证结果的均值。
当 k = m 时,称为留一法(Leave-One-Out,简称LOO)。留一法评估结果往往被认为比较准确,但当D比较大时,开销可能是难以忍受的。
2.3 自助法(bootstrapping)
自助法:以自助采样(bootstrap sampling)为基础产生数据集,即随机从D中选择一个样本的拷贝,重复m次,作为训练集。不被采样到的概率再取极限得
即,约有36.8%未被采样,并将它作为测试集。这样产生的测试结果称为“包外估计”(out-of-bagestimate)。
由于自助法产生的数据集改变了初始数据集的分布,这会引入估计误差。因此,当数据量足够时,留出法与交叉验证法更常用。
2.4 调参(parameter tuning)与最终模型
对每种参数配置都训练出模型是不可行的。常见做法,对每个参数选定一个范围和变化步长。
在模型选择完成后,学习算法和参数配置已选定,此时应该用D重新训练。
模型评估与选择中用于评估测试的数据集常称为“验证集”(validation set)。
3 性能度量(performance measure)
性能度量:衡量模型泛化能力的评价指标。学习器记作 f f 。
最常用的指标是均方误差(mean squared error):
对于数据分布D与概率密度函数p(·),均方误差为:
E(f;D)=∫x∼D(f(x)−y)2p(x)dx E ( f ; D ) = ∫ x ∼ D ( f ( x ) − y ) 2 p ( x ) d x3.1 错误率(error rate)与精度(accuracy)
一般的
错误率(error rate)
E(f;D)=1m∑i=1mI(f(xi)≠yi) E ( f ; D ) = 1 m ∑ i = 1 m I ( f ( x i ) ≠ y i )精度(accuracy):
acc(f;D)=1m∑i=1mI(f(xi)=yi)=1−E(f;D) a c c ( f ; D ) = 1 m ∑ i = 1 m I ( f ( x i ) = y i ) = 1 − E ( f ; D )
对于数据分布D与概率密度函数p(·),有
错误率(error rate)
E(f;D)=∫x∼DI(f(x)≠y)p(x)dx E ( f ; D ) = ∫ x ∼ D I ( f ( x ) ≠ y ) p ( x ) d x精度(accuracy):
acc(f;D)=∫x∼DI(f(x)=y)p(x)dx=1−E(f;D) a c c ( f ; D ) = ∫ x ∼ D I ( f ( x ) = y ) p ( x ) d x = 1 − E ( f ; D )
3.2 查准率(precision)、查全率(recall)与F1分数(F1 score)
对于二分类问题(binary classification)可将样例(example)根据其真实性类别与学习器预测类别的组合划分为:
- 真正例(true positive,TP)
- 假正例(false positive,FP)
- 真反例(true negative,TN)
- 假反例(false negative,FN)
显然有 TP + FP + TN + FN = 样例总数。
混淆矩阵(confusion matrix)为:
y=1y=0∑y^=1TPTNN^+y^=0FNFPN^−∑N+N− y ^ = 1 y ^ = 0 ∑ y = 1 T P F N N + y = 0 T N F P N − ∑ N ^ + N ^ −查准率(precision)又叫准确率,查准率P:
P=TPTP+FP P = T P T P + F P查全率(recall)又叫召回率,查全率R:
R=TPTP+FN R = T P T P + F N3.2.1 P-R曲线(Precision and Recall Curve)
将学习器的预测结果进行排序(最可能-最不可能),把样本作为正例进行预测,则每次可以计算出查准率和查全率。然后生成的查准率-查全率曲线即P-R曲线。
图片出自(《机器学习》——周志华)。
- 若一个学习器的P-R曲线被另一个完全“包住”,则后者优于前者,即A优于C;
- 若两个曲线发生交叉,“平衡点”(Break-Even Point,简称BEP)大的优于小的,即A优于B。‘’
3.2.2 F1 score
由于BEP还是过于简化了,更常用的是F1度量。
F1=2×P×RP+R=2×TP样例总数 + TP - TN F 1 = 2 × P × R P + R = 2 × T P 样例总数 + TP - TNF1度量的一般形式—— Fβ F β ,能表达出对查准率/查全率的不同偏好,它定义为:
Fβ=(1+β2)×P×R(β2×P)+R F β = ( 1 + β 2 ) × P × R ( β 2 × P ) + R- β>0 β > 0 度量了R对P的相对重要性;
- β=1 β = 1 时,退化为标准的F1;
- β>1 β > 1 时,R有更大影响;
- β<1 β < 1 时,P有更大影响。
F1是基于查准率与查全率的调和平均(harmonic mean)定义的:
1F1=12⋅(1P+1R) 1 F 1 = 1 2 ⋅ ( 1 P + 1 R )而 Fβ F β 则是加权调和平均:
1Fβ=11+β2⋅(1P+β2R) 1 F β = 1 1 + β 2 ⋅ ( 1 P + β 2 R )Wiki对于F1的原文:
The traditional F-measure or balanced F-score (F1 score) is the harmonic mean of precision and recall:
F1=21recall+1precision=2⋅precision⋅recallprecision+recall F 1 = 2 1 r e c a l l + 1 p r e c i s i o n = 2 ⋅ p r e c i s i o n ⋅ r e c a l l p r e c i s i o n + r e c a l lThe general formula for positive real β β is:
Fβ=(1+β2)⋅precision⋅recall(β2+precisioon)+recall F β = ( 1 + β 2 ) ⋅ p r e c i s i o n ⋅ r e c a l l ( β 2 + p r e c i s i o o n ) + r e c a l lThe formula in terms of Type I and type II errors:
Fβ=(1+β2)⋅truepositive(1+β2)⋅truepositive+β2⋅falsenegative+falsepositive F β = ( 1 + β 2 ) ⋅ t r u e p o s i t i v e ( 1 + β 2 ) ⋅ t r u e p o s i t i v e + β 2 ⋅ f a l s e n e g a t i v e + f a l s e p o s i t i v eTwo other commonly used F F measures are the measure, which weighs recall higher than precision (by placing more emphasis on false negatives), and the F0.5 F 0.5 measure, which weighs recall lower than precision (by attenuating the influence of false negatives).
The F-measure was derived so that Fβ F β “measures the effectiveness of retrieval with respect to a user who attaches β times as much importance to recall as precision”. It is based on Van Rijsbergen’s effectiveness measure.
E=1−(αp+1−αr)−1 E = 1 − ( α p + 1 − α r ) − 1Their relationship is Fβ=1−Ewhereα=11+β2 F β = 1 − E w h e r e α = 1 1 + β 2
The F1 score is also known as the Sørensen–Dice coefficient or Dice similarity coefficient (DSC).
3.2.3 n个二分类混淆矩阵的F1
在n个二分类混淆矩阵上综合考察查准率和查全率。有两种方法:
其一:宏查准率(macro-P),宏查全率(macro-R),宏F1(macro-F1)
macroP=1n∑i=1nPi m a c r o P = 1 n ∑ i = 1 n P imacroR=1n∑i=1nRi m a c r o R = 1 n ∑ i = 1 n R imacroF1=2×macroP×macroRmacroP+macroR m a c r o F 1 = 2 × m a c r o P × m a c r o R m a c r o P + m a c r o R其二:微查准率(micro-P),微查全率(micro-R),微F1(micro-F1)
microP=TP¯¯¯¯¯¯¯TP¯¯¯¯¯¯¯+FP¯¯¯¯¯¯¯¯ m i c r o P = T P ¯ T P ¯ + F P ¯microR=TP¯¯¯¯¯¯¯TP¯¯¯¯¯¯¯+FN¯¯¯¯¯¯¯¯ m i c r o R = T P ¯ T P ¯ + F N ¯microF1=2×microP×microRmicroP+microR m i c r o F 1 = 2 × m i c r o P × m i c r o R m i c r o P + m i c r o R
3.3 ROC(Receiver Operating Characteristic)与AUC(Area Under ROC Curve)
ROC曲线:根据预测结果对样例进行排序,按此顺序逐个把样本作为正例进行预测,每次计算出两个值
真正例率(True Positive Rate,简称TPR),纵轴
TPR=TPTP+FN T P R = T P T P + F N假正例率(False Positive Rate,简称FPR),横轴
FPR=FPTN+FP F P R = F P T N + F P
组成的图像。
图片出自(维基百科——Receiver Operating Characteristic词条)。
- 若一个学习器的ROC曲线被另一个学习器的曲线完全“包住”,则后者性能优于前者;
- 若发生交叉,则比较ROC曲线下的面积,即AUC(Area Under ROC Curve,绿色部分)。
AUC的估计为:
AUC=12∑i=1m−1(xi+1−xi)⋅(yi+yi+1) A U C = 1 2 ∑ i = 1 m − 1 ( x i + 1 − x i ) ⋅ ( y i + y i + 1 )排序损失(loss)为:
ℓrank=1m+m−∑x+∈D+∑x−∈D−(I(f(x+)<f(x−))+12I(f(x+)=f(x−))) ℓ r a n k = 1 m + m − ∑ x + ∈ D + ∑ x − ∈ D − ( I ( f ( x + ) < f ( x − ) ) + 1 2 I ( f ( x + ) = f ( x − ) ) )其中 m+,m−,D+,D− m + , m − , D + , D − 为正例,反例,正例集合,反例集合。
则
AUC=1−ℓrank A U C = 1 − ℓ r a n k3.4 代价敏感学习
在算法层面上解决不平衡数据学习的方法主要是基于代价敏感学习算法(Cost-Sensitive Learning)
代价敏感学习方法的核心要素是代价矩阵(cost matrix):不同类型的误分类情况导致的代价不一样:
Predict∖True010C00C101C01C11 P r e d i c t ∖ T r u e 0 1 0 C 00 C 01 1 C 10 C 11基于代价矩阵分析,代价敏感学习方法主要有以下方法:
- 从贝叶斯风险理论出发,把代价敏感学习堪称是分类结果的一种后处理,按照传统方法学习到一个模型,以实现损失最小为目标对结果进行调整
- 不依赖所用具体的分类器
- 但是缺点要求分类器输出值为概率
- 从学习模型出发,对具体学习方法的改造,使之能适应不平衡数据下的学习
- 代价敏感的支持向量机,决策树,神经网络
- 预处理的角度出发,将代价用于权重的调整,使得分类器满足代价敏感的特性