深度学习中mAP的含义

博客介绍了mAP相关概念,包括正例与负例的四种情况,准确率P、召回率R、平均精确度AP的定义及计算公式。还介绍了mAP即均值平均精度,是object dection中衡量检测精度的指标,以及P - R曲线表示的召回率和准确率之间的关系。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

转自:https://blog.youkuaiyun.com/shuiyixin/article/details/86349643

一、mAP相关概念
首先要给大家介绍几个常见的模型评价术语,

1、正例与负例
现在假设我们的分类目标只有两类,计为正例(positive)和负例(negtive),然后我们就能得到如下的四种情况:

(1)True positives(TP):  被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);

(2)False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;

(3)False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;

(4)True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。

2、P(准确率)
P 代表 precision,即准确率,准确率表示预测样本中实际正样本数占所有正样本数的比例,计算公式为:

准确率 = 预测样本中实际正样本数 / 所有的正样本数

precision = TP/(TP+FP)

3、R(召回率)
R 代表 recall ,即召回率,召回率表示预测样本中实际正样本数占所有预测的样本的比例,计算公式为:  

召回率 = 预测样本中实际正样本数 / 预测的样本数

Recall = TP/(TP+FN)=TP/P

一般来说,召回率越高,准确率越低。

4、AP(平均精确度)
AP 代表  Average Precision,即平均精确度。

二、mAP
1、mAP简介
mAP 是 Mean Average Precision  的缩写,即 均值平均精度。作为 object dection 中衡量检测精度的指标。计算公式为:

mAP = 所有类别的平均精度求和除以所有类别。

2、P—R曲线
P-R曲线,顾名思义,就是P-R的关系曲线图,表示了召回率和准确率之间的关系;我们可以在坐标系上做以 precision 和 recall 作为 纵、横轴坐标 的二维曲线。

上图就是一个P-R曲线的例子,通过这几个例子,我们能够发现一个规律:精度越高,召回率越低,当召回达到1时,对应概率分数最低的正样本,这个时候正样本数量除以所有大于等于该阈值的样本数量就是最低的精度值。

 
 

### 深度学习领域常见术语解释 #### Backbone 在网络架构设计中,“Backbone”特指卷积神经网络或其他类型神经网络的核心部分,主要职责是从输入数据中抽取特征并将其传递至下一层以完成特定任务,比如分类、目标检测或是语义分割等[^2]。 #### Head 与“Backbone”相对应的是“Head”,这部分位于整个模型结构的末端,专门负责基于由backbone提取出来的高级特征来进行具体的预测工作。例如,在物体检测任务里,heads可能包含边界框回归器以及类别识别模块。 #### Neck 介于backbone和head之间的组件被称为neck,其作用在于进一步加工来自backbone的信息流,以便更好地服务于最终的任务需求。常见的neck实现形式有FPN(Feature Pyramid Networks)、PANet等,它们能增强多尺度特征表示的能力。 #### Ground Truth 在机器学习尤其是监督学习场景下,“Ground Truth”代表了样本的真实标签或理想输出值;它是评估算法性能好坏的重要依据之一。对于图像标注而言,ground truth即是由人工精心标记好的像素级精确位置信息或者对象类别标识[^3]。 #### Pretext Task & Downstream Task Pretext tasks是指那些本身并非我们真正关心的应用问题但却有助于预训练模型获取通用视觉表征的学习子任务;而downstream tasks则是指实际想要解决的具体业务挑战所在的任务。通过先做pretext task再迁移至downstream task的方式可以有效提升下游任务的表现效果。 #### State, Action, Reward (SAR) 这三个概念来源于强化学习框架内,其中state表示环境状态,action意味着智能体采取的动作,reward则反映了因执行某动作后所获得即时反馈奖励得分的变化情况。三者共同构成了agent与environment交互过程的一个基本单元——时间步(timestep)[^4]。 #### Trajectory 一条轨迹(trajectory)记录了一次完整的episode期间所有连续发生的(state, action, reward)序列集合。它完整描绘出了从初始时刻直到终止条件满足为止这一过程中agent经历过的全部事件发展脉络。 #### Spatial Pyramid Pooling (SPP) 为了使CNN具备接受任意分辨率图片作为输入而不影响参数量固定不变的优势特性,提出了空间金字塔池化机制。该方法通过对原始feature map实施多层次划分采样操作进而得到定长向量表达,实现了对不同尺寸源图的有效兼容处理[^5]。 ```python import torch.nn as nn class SPP(nn.Module): def __init__(self, levels=[1, 2, 4]): super(SPP, self).__init__() self.levels = levels def forward(self, x): b, c, h, w = x.size() features = [] for level in self.levels: size_h = int(h / level) size_w = int(w / level) pool = F.adaptive_max_pool2d(x, output_size=(size_h, size_w)) flattened = pool.view(b, -1) features.append(flattened) concatenated = torch.cat(features, dim=1) return concatenated ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值