正确率与错误率
正确率:被正确分类的样本数 / 总待分类的样本数
错误率:被错误分类的样本数 / 总待分类的样本数
关系:正确率+错误率=1
混淆矩阵
| M | 实际1 | 实际0 |
|---|---|---|
| 预测1 | TP | FP |
| 预测0 | FN | TN |
TP:被正确分类为正样本
FP:被错误分类为正样本
FN:被错误分类为负样本
TN:被正确分类为负样本
(记忆技巧:T为正确 F为错误 P为正样本 N为负样本)
精确率与召回率——综合F1
**Precision(查准率)**:TP / (FP+TP) —— 被检测为正样本中多少为 真正的样本
**Recall(查全率)**:TP / (TP+FN) ——所有的真正样本 有多少被检测为正样本
关系:两个指标要同时高分才能证明分类器性能好,所以有了 F1值
**F1值**:(1/Precison + 1/Recall) / 2 —— 精确率与召回率的调和平均
不好的情况:
检测的对——precision高
遗漏的多——recall低
好的情况:
检测的对——precision高
遗漏的少——recall高
mAP——m classes Average Precision
AP为一个类别的平均准确率,它是Precision与Recall为坐标轴形成的面积
m即多个类别的平均准确率
mAP越高,代表分类器性能越好
ROC曲线
指的是TPR与FPR之间的关系,以TPR为纵坐标,FPR为横坐标
TPR(真正率):TP / (TP+FN) —— 正确检测为正样本 在实际正样本的占比
FPR(假正率):FP / (FP+TN) —— 错误检测为正样本 在实际负样本的占比
绘制的曲线越接近左上角,代表分类器性能越好,**即真正率高而假正率低**
AUC——Area under Curve(ROC)
其为ROC曲线下的面积,面积越接近1,分类器性能越好
本文深入探讨了机器学习中的正确率、错误率、精确率、召回率和F1值等关键评估指标,以及它们在衡量分类器性能时的作用。此外,还介绍了平均精度均值(mAP)、ROC曲线和AUC的概念,这些指标对于优化模型至关重要。通过对这些概念的了解,可以帮助开发者更好地调整和提升模型的性能。
1597

被折叠的 条评论
为什么被折叠?



