目标检测模型的评价指标(Acc, Precision, Recall, AP, mAP, RoI)

本文详细介绍了目标检测模型的评价指标,包括准确度(Accuracy)、精确率(Precision)、召回率(Recall)、AP(Average Precision)、mAP以及IoU(Intersection over Union)。讨论了这些指标在评估模型分类精度、定位精度以及运行速度等方面的作用,并对比了VOC和COCO数据集的mAP计算方式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目标检测模型的评价指标(Acc, Precision, Recall, AP, mAP, RoI)

对于一个目标检测模型的好坏,总的来说可以从以下三个方面来评估:

  • 分类的精度如何。一般可以用准确度(Accuracy),精度(Precision),召回率(Recall Rate), PR 曲线,AP,mAP等
  • 定位的精度如何。比如 IoU
  • 运行的速度如何。比如 fps,一秒处理几张图。

严格说某些场合也会很在意模型的大小,这也是一个研究方向,比如 squeeze net, mobile net, shuffle net 等。所以除了上面三个维度,模型的大小也可以是一个评价维度。

1.基础知识

由于有些指标是统计指标,所以我们先回顾一下相关的统计学知识。
我们在做假设检验的时候会犯两种错误。

  • 第一,原假设是正确的,而你判断它为错误的;
  • 第二,原假设是错误的,而你判断它为正确的。

我们分别称这两种错误为第一类错误和第二类错误。也许不是很清晰,直接看下面的图(图片来自知乎)就一目了然了。

对于上面的两张图,我们的原假设是没有怀孕。对于第一张图,原假设是对的,但是却判断它为错误的。对于第二张图,原假设是错误的,但是却判断它为正确的。

这个问题如果放到混淆矩阵里面就更清楚了。

真实值(label)\ 预测值 正例 反例
正例 TP FN
反例 FP TN

2. 准确度(Accuracy, Acc)

准确度是所有预测中预测正确的比例。

A c c = T P + T N T P + F N + F P + F N Acc = \frac{TP + TN}{TP + FN + FP + FN} Acc=TP+FN+FP+FNTP+

### 目标检测模型评估指标 mAP (Mean Average Precision) #### 定义 均值平均精度(mAP, Mean Average Precision)是一个综合性的度量标准,用于评估目标检测模型的整体表现。该指标不仅考虑了模型对不同类别的识别能力,还考量了其定位准确性。 对于单个类别而言,先计算出各个置信阈值下的精确率(Precision)和召回率(Recall),进而获得该类别的平均精度(AP)[^1]。具体来说,在给定一系列预测框的情况下,通过设定不同的IoU交并比阈值来判断哪些预测被认为是正确的(True Positive),从而统计TP、FP(False Positive)以及FN(False Negative),最终得出PrecisionRecall曲线图上的多个点位数据[^3]。 #### 计算过程 为了求得某个特定类别的AP: - 对于每一个测试样本中的真实对象实例,按照预测得分从高到低排序; - 遍历这些预测结果,每当遇到一个新的True Positive时更新当前累计的TP数,并据此重新计算此时此刻为止所累积起来的所有预测案例中TP占总数量的比例作为新的Precision值;同时记录下对应的Recall比率; - 将上述过程中形成的若干组(P,R)坐标连接成一条PR曲线; - AP等于这条曲线下方面积大小,可以采用积分法近似估算或者简单地取固定间隔处的最大Precision值得分加权平均而得。 当完成了所有类别的AP计算之后,就可以很容易地得到整个系统的mAP——只需将各单独类目的AP相加以总数除之即可完成最后一步运算[^2]。 ```python def calculate_ap(precisions, recalls): """Calculate the area under PR curve.""" ap = 0. for i in range(len(recalls)-1): delta_recall = recalls[i+1] - recalls[i] avg_precision = (precisions[i]+precisions[i+1])/2 ap += delta_recall * avg_precision return ap def mean_average_precision(all_precisions, all_recalls): """Compute mAP over multiple classes""" class_aps = [] for precisions, recalls in zip(all_precisions.values(), all_recalls.values()): ap = calculate_ap(precisions, recalls) class_aps.append(ap) map_score = sum(class_aps)/len(class_aps) return map_score ```
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值