目标检测中mAP的定义

本文详细解释了目标检测中mAP的计算方法,包括Precision和Recall的概念,以及如何通过P-R曲线来评估检测模型的性能。以猫咪检测为例,阐述了True Positive和False Positive的界定标准。

作者:nowgood
链接:https://www.zhihu.com/question/53405779/answer/506000532
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
 

目标检测中衡量识别精度的指标是mAP(mean average precision)。多个类别物体检测中,每一个类别都可以根据recall和precision绘制一条曲线,AP就是该曲线下的面积,mAP是多个类别AP的平均值

然后重点计算某一个类别的 AP 了, 也就是如何画 P-R 曲线, 就目标检测而言, 可能大家困惑的点在于 TP, FP 如何计算, 下面以猫咪这一类为例说明

2. 基础概念

召回率(Recall)是从数据集的同一类的样本抽样, 而Precision是从已经预测为同一类别的样本抽样

Precision

查准率(Precision)是针对预测结果而言的,它表示的是预测为正的样本中有多少是真正的正样本。

\begin{align}  Precision = \frac{TP}{TP+FP}  \tag{1}\\ \end{align}

TP+FP 所有预测为猫咪类的框

Recall

召回率(Recall, 又称为 TPR)是针对原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。

\begin{align} Recall = \frac{TP}{TP+FN}  \tag{2} \end{align}

TP+FN 样本中猫咪的所有真实框, 这个容易知道

3. 重点是 \bf TP和FP 如何定义呢?

在所有预测为猫咪类的框中, 具有怎么样的特征的框才是 TP 和 FP 呢?

计算流程

  1. 猫咪类别的Prediction下,对于某一确定 score threshold
  • 将 Prediction 按照 score 排序
  • score 大于 score threshold 的 Prediction 的定义为 Positive

2. 猫咪类别的Positive Prediction下,对于某一确定 IOU threshold,

  • 与猫咪类别的GT的 IOU 大于 threshold 的 Prediction 标记为 True Positive(TP)
  • 与猫咪类别的GT的 IOU 小于 threshold 的 Prediction 标记为 False Positive(FP)

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值