视频质量检测中的TP、FP、Reacll、Precision

本文介绍了在数据挖掘领域中TPR(真正率)、FPR(假正率)、Precision(精确率)和Recall(召回率)等概念,并通过实例解释了这些指标的计算方法及其含义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在看论文《Measuring Vedio QoE from Encrypted Traffic》的时候看到TP(True Positives)、FP(False Positives)、Precison、Recall的概念,这属于数据挖掘方面的内容,学习之后特来记录。

首先,下面这个表格可以比较清晰地给出各个情况的名字,也很好记。T:True ,F:False,这个true或者false用于判断预测:若预测为1,实际为1 ,说明这个预测对了,是true的positive,记为TP;若预测为1,实际为0 ,说明这个预测对了,是false的positive,记为FP;以此类推另外两个。


这几个数据之间的比率也具有特定的意义。

True Positive Rate(真正率 , TPR)=TP/(TP+FN),即被正确预测的正样本数目/实际正样本数目。

True Negative Rate(真负率 , TNR)=TN/(TN+FP),即被正确预测的负样本数目/实际负样本数目。

False Positive Rate(假正率, FPR) = FP /(FP + TN),即被预测为正的负样本结果数 /负样本实际数 

False Negative Rate(假负率 , FNR)=FN /(TP + FN),即被预测为负的正样本结果数 / 正样本实际数


Precison=TP/(TP+FP)

Recall=TP/样本总数(此处有疑问,论文与后注参考网站所说不符,此处为论文说法)

此网站说得较详细,可以参考:http://www.fullstackdevel.com/computer-tec/data-mining-machine-learning/501.html

### TPFP、FN、IOU、Precision 和 Recall 的定义及计算 #### True Positive (TP) True Positive 表示被正确识别为正类别的实例数量。当模型预测某个样本属于某一类别,并且该预测是正确的,则这个预测记作 true positive。 #### False Positive (FP) False Positive 指的是错误地将负类别标记为正类别的次数。如果模型预测某一样本属于特定类别但实际上不属于此类别,那么这会被视为 false positive。 #### False Negative (FN) False Negative 发生在实际应归属于正类别的样本未被正确分类的情况下。即模型未能成功检测到真正的正样例时发生的情况。 #### Intersection over Union (IoU) Intersection Over Union 是一种用于测量两个边界框重叠程度的标准度量单位。其公式如下: \[ \text{IoU} = \frac{\text{Area of overlap}}{\text{Area of union}} \] 其中,“overlap area”是指两个矩形区域相交部分的面积;而“union area”则是指这两个矩形总面积之和减去它们之间共同覆盖的部分[^2]。 ```python def iou(box_a, box_b): # Calculate intersection coordinates inter_x1 = max(box_a[0], box_b[0]) inter_y1 = max(box_a[1], box_b[1]) inter_x2 = min(box_a[2], box_b[2]) inter_y2 = min(box_a[3], box_b[3]) # Compute the width and height of the intersection rectangle inter_w = max(0, inter_x2 - inter_x1 + 1) inter_h = max(0, inter_y2 - inter_y1 + 1) inter_area = inter_w * inter_h # Separately calculate each bounding box's area a_area = (box_a[2] - box_a[0] + 1) * (box_a[3] - box_a[1] + 1) b_area = (box_b[2] - box_b[0] + 1) * (box_b[3] - box_b[1] + 1) # Return IoU value return float(inter_area) / (a_area + b_area - inter_area) ``` #### Precision(精确率) Precision 描述了所有预测为正类的结果中有多少确实是正类的比例。它反映了模型做出肯定判断时的信心水平。计算公式为: \[ \text{Precision}=\frac{\mathrm {TP}} {\mathrm {TP}+\mathrm {FP}} \] #### Recall(召回率) Recall 则关注于所有真实存在的正类中有多大比例被准确找出。这是衡量算法能否有效发现目标对象的重要标准之一。计算方式如下所示: \[ \text{Recall}= \frac{\mathrm {TP}} {\mathrm {TP}+\mathrm {FN}} \] 上述各项指标构成了评估机器学习尤其是深度学习领域内物体检测任务效果的基础工具集[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值