AP用来处理目标检测问题,Precision和Recall只能处理分类问题。
mAP处理多目标问题,对AP进行简单平均。
mAP计算的两个参数
(1)IoU确定一个检测结果(Positive)是正确的(True)还是错误的(False)。
解释:1的confidence score表所有结果都是预测框,IoU决定了label的值,也就决定了预测是否是对的。
IOU阈值可以人为确定= 0.5,COCO数据集的评估指标建议对不同的IoU阈值进行计算。
(2)置信度(confidence score)确定预测框是Positive还是 Negative。
解释:小于设定的置信度的结果都不认为是真。
必须用PASCAL VOC CHALLENGE的标准来解决问题,因为不同的模型置信度归一化或者说计算方法不同。
参考文章
1.性能指标(模型评估)之mAP
https://blog.youkuaiyun.com/u014203453/article/details/77598997
2.最完整的检测模型评估指标mAP计算指南(附代码)在这里!
https://blog.youkuaiyun.com/l7H9JA4/article/details/80745028
文章1对mAP的计算过程讲解较清晰,但是没指出怎么给出ground truth label,也就是没解释IoU起到的作用。
文章2给出了ground truth的解释:计算每个Positive预测框与ground truth的IoU值,并取最大的IoU值,认为该预测框检测到了。然后根据IoU阈值(VOC取0.5),得到label为1的检测框,剩下的都是label为0。