精确率、准确率、召回率与F1-Score

本文详细解析了机器学习中常见的评估指标,包括精确率、召回率、准确率和F1-Score的概念及其计算方式,帮助读者深入理解这些指标在算法评估中的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

TP: Ture Positive 把正的判断为正的数目 True Positive,判断正确,且判为了正,即正的预测为正的。
FN: False Negative 把正的错判为负的数目 False Negative,判断错误,且判为了负,即把正的判为了负的
FP: False Positive 把负的错判为正的数目 False Positive, 判断错误,且判为了正,即把负的判为了正的
TN: True Negative 把负的判为负的数目 True Negative,判断正确,且判为了负,即把负的判为了负的

  1. 精确率(Precision)
    精确率是相对于预测结果而言的,它表示的是预测为正的样本中有多少是对的;那么预测为正的样本就有两种可能来源,一种是把正的预测为正的,这类有TruePositive个, 另外一种是把负的错判为正的,这类有FalsePositive个,因此精确率即:P=TP/(TP+FP)

  2. 准确率 (Accuracy)
    准确率是指有在所有的判断中有多少判断正确的,即把正的判断为正的,还有把负的判断为负的;总共有 TP + FN + FP + TN 个,所以准确率:(TP+TN) / (TP+TN+FN+FP)

  3. 召回率 (Recall)
    召回率是相对于样本而言的,即样本中有多少正样本被预测正确了,这样的有TP个,所有的正样本有两个去向,一个是被判为正的,另一个是错判为负的,因此总共有TP+FN个,所以,召回率 R= TP / (TP+FN)

召回率和精确率可以单独作为系统的评估指标。但很多应用里,我们可能没有一个明确的明显性,就希望得到两者之间的一个合理的平衡点。
那这时候,用两个指标来描述一个系统性能是不理想的,所以有人就提出了能不能把精确率和召回率合在一起弄成一个单独的指标?这就是F1-Score。
为什么要用f1-score而不是平均值?
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值