查准率,查全率与F1
对于二分类问题,可以将样例根据真实的类别与学习器预测类别的组合分为真正例(TP true positive)、假正例(FP false positive)、真反例(TN true nagative)、假反例(FN false negative)。
显然
TP+FP+TN+FN=样例总数
分类结果混淆矩阵
真实情况 | 预测结果 | |
---|---|---|
正例 | 反例 | |
正例 | TP | FN |
反例 | FP | TN |
查准率:
P=TPTP+FP
查全率:
R=TPFP+FN
一般情况下
P↑,R↓
P↓,R↑
Break-Even Point(BEP)
平衡点:
此时P=R,此时,查准率=查全率
如果一个学习算法
F1度量
F1度量的一般形式
F1=2×P×RP+R=2×TP样例总数+TP−TN
注:
F1度量是基于查准率和查全率的调和平均数定义的:
1F=12⋅(1P+1R)
Fβ度量
一些情况下对于查准率和查全率的重视程度的不同,采用的一种F1度量的一般形式。
定义为:
Fβ=(1+β2)×P×R(β2×P)+R
其中β>0度量了查全率对查准率的相对重要性,β=1时退化为F1;β>1时查全率有更大影响,β<1时查准率有更大影响。
注:
Fβ度量是基于查准率和查全率的是加权调和平均数定义的:
1Fβ=11+β2(1P+β2R)
多个二分类混合矩阵
一般做法
在各个混淆矩阵上分别计算出查准率和查全率
记为(P1,R1),(P2,R2),…,(Pn,Rn)
宏(macro)
做法:先计算再平均
宏查准率:
macro-P=1n∑ni=1Pi
宏查全率:
macro-R=1n∑ni=1Ri
宏F1:
macro-F1=2×macro-P×macro-Rmacro-P+macro-R
微(micro)
做法:先平均再计算
TP¯¯¯¯¯=1n∑ni=1TP
FP¯¯¯¯¯=1n∑ni=1FP
TN¯¯¯¯¯=1n∑ni=1TN
FN¯¯¯¯¯¯=1n∑ni=1FN
微查准率:
micro-P=TP¯¯¯¯¯TP¯¯¯¯¯+FP¯¯¯¯¯
微查全率:
micro-R=TP¯¯¯¯¯TP¯¯¯¯¯+FN¯¯¯¯¯¯
微F1
micro-F1=2×micro-P×micro-Rmicro-P+micro-R