正确率与错误率
正确率:被正确分类的样本数 / 总待分类的样本数
错误率:被错误分类的样本数 / 总待分类的样本数
关系:正确率+错误率=1
混淆矩阵
M | 实际1 | 实际0 |
---|---|---|
预测1 | TP | FP |
预测0 | FN | TN |
TP:被正确分类为正样本
FP:被错误分类为正样本
FN:被错误分类为负样本
TN:被正确分类为负样本
(记忆技巧:T为正确 F为错误 P为正样本 N为负样本)
精确率与召回率——综合F1
**Precision(查准率)**:TP / (FP+TP) —— 被检测为正样本中多少为 真正的样本
**Recall(查全率)**:TP / (TP+FN) ——所有的真正样本 有多少被检测为正样本
关系:两个指标要同时高分才能证明分类器性能好,所以有了 F1值
**F1值**:(1/Precison + 1/Recall) / 2 —— 精确率与召回率的调和平均
不好的情况:
检测的对——precision高
遗漏的多——recall低
好的情况:
检测的对——precision高
遗漏的少——recall高
mAP——m classes Average Precision
AP为一个类别的平均准确率,它是Precision与Recall为坐标轴形成的面积
m即多个类别的平均准确率
mAP越高,代表分类器性能越好
ROC曲线
指的是TPR与FPR之间的关系,以TPR为纵坐标,FPR为横坐标
TPR(真正率):TP / (TP+FN) —— 正确检测为正样本 在实际正样本的占比
FPR(假正率):FP / (FP+TN) —— 错误检测为正样本 在实际负样本的占比
绘制的曲线越接近左上角,代表分类器性能越好,**即真正率高而假正率低**
AUC——Area under Curve(ROC)
其为ROC曲线下的面积,面积越接近1,分类器性能越好