深度学习笔记(八):目标检测性能评价指标(mAP、IOU..)

本文介绍了目标检测中的关键评价指标,包括mAP(平均精度均值)、IOU(交并比)、NMS(非极大抑制)及检测速度等,并详细解释了这些指标的计算方法和应用场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、mAP

  这里首先介绍几个常见的模型评价术语,现在假设我们的分类目标只有两类,计为正例(positive)和负例(negtive)分别是:

  1)True positives(TP):  被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);

  2)False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;

  3)False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;

  4)True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。 

P   

           代表precision准确率,           计算公式为   预测样本中实际正样本数 / 所有的正样本数 即  precision=TP/(TP+FP)

R

            代表recall   即召回率,            计算公式为 预测样本中实际正样本数 / 预测的样本数即   Recall=TP/(TP+FN)=TP/P

一般来说,precision和recall是鱼与熊掌的关系,往往召回率越高,准确率越低

AP

            AP 即 Average Precision即平均精确度

mAP 

           mAP 即 Mean Average Precision即平均AP值,是对多个验证集个体求平均AP值,作为 object dection中衡量检测精度的指标。

P-R曲线

P-R曲线即 以 precisionrecall 作为 纵、横轴坐标 的二维曲线。通过选取不同阈值时对应的精度和召回率画出

总体趋势,精度越高,召回越低,当召回达到1时,对应概率分数最低的正样本,这个时候正样本数量除以所有大于等于该阈值的样本数量就是最低的精度值。

另外,P-R曲线围起来的面积就是AP值,通常来说一个越好的分类器,AP值越高

最后小小总结一下,在目标检测中,每一类都可以根据 recall 和 precision绘制P-R曲线,AP就是该曲线下的面积,mAP就是所有类AP的平均值。

二、IOU(交并比)

IOU 即交并比 即 Intersection-over-Union,是目标检测中使用的一个概念,是一种测量在特定数据集中检测相应物体准确度的一个标准。

IOU表示了产生的候选框(candidate bound)与原标记框(ground truth bound)的交叠率或者说重叠度,也就是它们的交集与并集的比值。相关度越高该值。最理想情况是完全重叠,即比值为1。

计算公式如下:

三、NMS(非极大抑制)

NMS即non maximum suppression即非极大抑制,顾名思义就是抑制不是极大值的元素,搜索局部的极大值

在物体检测中,NMS 应用十分广泛,其目的是为了清除多余的框,找到最佳的物体检测的位置。

四、速度

               除了检测准确度,目标检测算法的另外一个重要性能指标是速度,只有速度快,才能实现实时检测,这对一些应用场景极其重要。评估速度的常用指标是每秒帧率(Frame Per Second,FPS),即每秒内可以处理的图片数量。当然要对比FPS,你需要在同一硬件上进行。另外也可以使用处理一张图片所需时间来评估检测速度,时间越短,速度越快。

参考博客:

分类、目标检测中的评价指标(一) - 知乎

菜鸟的成长之路

NMS——非极大值抑制_nms非极大值抑制-优快云博客

基于深度学习的评价指标是用来衡量深度学习算法性能的指标。传统的指标可以用于评价深度学习算法,但是由于深度学习算法的特殊性,一些传统指标可能无法完全适用或需要进行适当的修改。 以下是一些常见的基于深度学习的评价指标: 1. 准确率(Accuracy):衡量模型在所有样本中正确分类的比例。 2. 精确率(Precision):衡量模型在预测为正例的样本中真正为正例的比例。 3. 召回率(Recall):衡量模型在所有正例样本中预测为正例的比例。 4. F1值(F1-score):综合考虑精确率和召回率的指标,可以平衡两者之间的关系。 5. ROC曲线和AUC值:ROC曲线是以不同阈值下真正例率(TPR)和假正例率(FPR)为横纵坐标绘制的曲线,AUC值表示ROC曲线下的面积,用于衡量分类器的性能。 6. 均方误差(Mean Squared Error,MSE):用于回归问题,衡量预测值与真实值之间的平均差异程度。 7. 对数损失(Log Loss):用于二分类问题,衡量模型对样本的预测概率与真实标签之间的差异程度。 传统的指标可以评价深度学习算法的性能,但需要根据具体情况进行适当的调整和解释。由于深度学习算法的复杂性和非线性特征,传统指标可能无法完全捕捉到深度学习算法的优势和特点。因此,在评价深度学习算法时,还需要结合具体任务和数据集的特点,选择合适的评价指标来全面评估算法性能。
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值