机器学习---查准率与查全率(precision and recall)

本文通过实例解释了机器学习中的评估指标,包括查准率(精度)和查全率(召回率),并通过不同应用场景(如商品推荐系统和逃犯信息检索系统)探讨了这些指标的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

转载自 https://www.cnblogs.com/zle1992/p/6689136.html
结合周志华的机器学习理解

  假设要识别照片中的狗的,在一些照片中,包含12只狗的照片和一些猫的照片。算法识别出有8只狗。在确定的8只狗中,5只实际上是狗(真阳性TP),而其余的是猫(假阳性FP)。该程序的精度为5/8,而其召回率为5/12。

 Predicted  
Actual狗(+)猫(-) 
狗(+)5(TP)FN12
猫(-)3(FP)TN 
 8  

      Confusion matrix

查准率 = 精度 = precision

查全率 = 召回率 = recall

 

            {\displaystyle {\text{Recall}}={\frac {tp}{tp+fn}}\,}

  当搜索引擎返回30个页面时,只有20个页是相关的(实际相关),而没有返回另外40个相关页面,其精度为20/30 = 2/3,而召回率为20/60 = 1/3。所以,在这种情况下,精度是“搜索结果有用”,召回率是“结果如何完整”。

 Predicted  
Actual(+)(-) 
(+)20(TP)40(FN)60
(-)FPTN 
 30  

        Confusion matrix

  

商品推荐系统中,为了尽可能地少打扰用户,更希望推荐内容确实是用户感兴趣的,就要提高精度(查准率),在分类时,慎重地预测为+,也就是说,预测成正地比例将减小,即中 TP+FP变小,分母变小,分子也变小,但是分母变化的更剧烈,所以精度变大。在公式{\displaystyle {\text{Recall}}={\frac {tp}{tp+fn}}\,}中,TP变小,分子变小,分母(实际的正类)不变,召回率变小。

  在逃犯信息检索系统中,更希望尽可能地少漏掉逃犯,此时,就要提高召回率(查全率),在分类时,尽量多的预测为+,就需要提高预测正类的比例,TP+FP 变大,TP变大,在公式{\displaystyle {\text{Recall}}={\frac {tp}{tp+fn}}\,}中 TP变大,分母不变,分子变大,所以召回率变大。在公式中,分母变大,分子变大,但是分母变化的更剧烈,所以精度变小

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值