系列文章目录
文章目录
- 系列文章目录
- 一、真正例(True Positive)、假正例(False Positive)、真负例(True Negative)和假负例(False Negative)是评估分类模型性能的重要概念。
- 二、AP(Average Precision)和mAP(mean Average Precision)是用于评估目标检测和信息检索等任务中模型性能的重要指标。
- 三、IoU(Intersection over Union)
- 四、mAP@0.3
- 五、在信息检索(retrieval)任务中,R@(Recall at k)是一个重要的评估指标,用于衡量模型在前 k 个检索结果中找到相关项的能力。
- 六、Prec@10 和 Acc@10 是两个不同的指标,它们在定义和计算上有显著区别。
一、真正例(True Positive)、假正例(False Positive)、真负例(True Negative)和假负例(False Negative)是评估分类模型性能的重要概念。
这些指标主要用于二分类问题,详细介绍如下:
1. 定义
-
真正例 (True Positive, TP):
模型正确地将正类(例如,某种疾病存在)预测为正类的实例数量。 -
假正例 (False Positive, FP):
模型错误地将负类(例如,某种疾病不存在)预测为正类的实例数量。这通常被称为“误报”。 -
真负例 (True Negative, TN):
模型正确地将负类预测为负类的实例数量。 -
假负例 (False Negative, FN):
模型错误地将正类预测为负类的实例数量。这通常被称为“漏报”。
2. 例子
假设我们有一个用于检测疾病的模型,测试结果如下:
-
实际情况:
- 10人有疾病(正类)
- 90人没有疾病(负类)
-
模型预测结果:
- 8人被正确预测为有疾病(TP = 8)
- 2人被错误预测为没有疾病(FN = 2)
- 5人被错误预测为有疾病(FP = 5)
- 85人被正确预测为没有疾病(TN = 85)
3. 计算指标
根据上述例子,我们可以计算以下指标:
- 准确率 (Accuracy):
Accuracy = T P + T N T P + T N + F P + F N = 8 + 85 8 + 85 + 5 + 2 = 93 100 = 0.93 \text{Accuracy} = \frac{TP + TN}{TP + TN + FP + FN} = \frac{8 + 85}{8 + 85 + 5 + 2} = \frac{93}{100} = 0.93 Accuracy=TP+TN+FP+FNTP+TN=8+85+5+28+85=10093=0.93
- 精确率 (Precision):
Precision = T P T P + F P = 8 8 + 5 = 8 13 ≈ 0.615 \text{Precision} = \frac{TP}{TP + FP} = \frac{8}{8 + 5} = \frac{8}{13} \approx 0.615 Precision=TP+FPTP=8+58=138≈0.615
- 召回率 (Recall):
Recall = T P T P + F N = 8 8 + 2 = 8 10 = 0.8 \text{Recall} = \frac{TP}{TP + FN} = \frac{8}{8 + 2} = \frac{8}{10} = 0.8 Recall=