分类算法常见的评估指标:
1、混淆矩阵(Confuse Matrix )
(1)若一个实例是正类,并且被预测为正类,即为真正类TP(True Positive)
(2)若一个实例是正类,并且被预测为负类,即为假负类FN(False Negative)
(3)若一个实例是负类,并且被预测为正类,即为假正类FP(False Positive)
(4)若一个实例是负类,并且被预测为负类,即为真负类TN(True Negative)
2、准确率(Accuracy)
常用的评价指标,但是不适合[于样本不均衡的情况。
A
c
c
u
r
a
c
y
=
T
P
+
T
N
T
P
+
T
N
+
F
P
+
F
N
Accuracy=\frac{TP+TN}{TP+TN+FP+FN}
Accuracy=TP+TN+FP+FNTP+TN
3、精确率(Precision)
又称为查准率,正确预测为正样本(TP)占正样本(TP+FP)的百分比。
P
r
e
c
i
s
i
o
n
=
T
P
T
P
+
F
P
Precision=\frac{TP}{TP+FP}
Precision=TP+FPTP
4、召回率(Recall)
又称为查全率,正确预测为正样本(TP)占正样本(TP+FN)的百分比。
R
e
c
a
l
l
=
T
P
T
P
+
F
N
Recall=\frac{TP}{TP+FN}
Recall=TP+FNTP
5、F1 Score
精确率和召回率是相互影响的,精确率升高则召回率下降,召回率升高则精确率下降,如果需要兼顾二者,就需要精确率、召回率结合的F1 Score。
F
1
−
S
c
o
r
e
=
2
1
P
r
e
c
i
s
i
o
n
+
1
R
e
c
a
l
l
F1-Score=\frac{2}{\frac{1}{Precision}+\frac{1}{Recall}}
F1−Score=Precision1+Recall12
6、P-R曲线(Precision-Recall Curve)
P-R曲线是描述精确率和召回率的曲线
7、ROC(Receiver Operating Characteristic)
ROC 空间将假正例率(FPR)定义为X轴,真正例率(TPR)定义为Y轴。
TPR:在所有实际为正例的样本中,被正确地判断为正例之比率(–和召回率计算公式一样)。
T
P
R
=
T
P
T
P
+
F
N
TPR=\frac{TP}{TP+FN}
TPR=TP+FNTP
FPR:在所有实际为负例的样本中,被错误地判断为正例之比率。
T
P
R
=
F
P
F
P
+
T
N
TPR=\frac{FP}{FP+TN}
TPR=FP+TNFP
8、AUC(Area Under Curve)
ROC曲线下与坐标轴围成的面积,显然这个面积的数值不会大于1。
又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围在0.5到1。AUC越接近1.0,检测方法真实性越高;等于0.5时,则真实性最低,无应用价值。
金融风控预测类常见的评估指标:
1、KS(kolmogorov-Sminov)统计量
在风控中,KS常用于评估模型区分度。区分度越大,说明模型的风险排序能力(ranking ability)越强。 K-S曲线与ROC曲线类似,不同在于
- ROC曲线将真正例率和假正例率作为横纵轴
- K-S曲线将真正例率和假正例率都作为纵轴,横轴则由选定的阈值来充当。 公式如下: K S = m a x ( T P R − F P R ) KS=max(TPR-FPR) KS=max(TPR−FPR) KS不同代表的不同情况,一般情况KS值越大,模型的区分能力越强,但是也不是越大模型效果就越好,如果KS过大,模型可能存在异常,所以当KS值过高可能需要检查模型是否过拟合。以下为KS值对应的模型情况,但此对应不是唯一的,只代表大致趋势。
KS(%) | 好坏区分能力 |
---|---|
20以下 | 不建议采用 |
20-40 | 较好 |
41-50 | 良好 |
51-60 | 很强 |
61-75 | 非常强 |
75以上 | 过于高,疑似存在问题 |