混淆矩阵、准确率、召回率、漏报率、误报率、F1分数

1、混淆矩阵
在二分类问题中,混淆矩阵被用来度量模型的准确率。因为在二分类问题中单一样本的预测结果只有Yes or No,即:真或者假两种结果,所以全体样本的经二分类模型处理后,处理结果不外乎四种情况,每种情况都有一个专门称谓,如果用一个2行2列表格描述,得到的就是“混淆矩阵”,
在这里插入图片描述
2.准确率
准确率(Accuracy)的定义,即预测正确的结果占总样本的百分比,表达式为
![在这里插入图片描述](https://img-blog.csdnimg.cn/a99daaab04b84e46b3189582cd810c0a.png在这里插入图片描述

虽然准确率能够判断总的正确率,但是在样本不均衡的情况下,并不能作为很好的指标来衡量结果。

比如在样本集中,正样本有90个,负样本有10个,样本是严重的不均衡。对于这种情况,我们只需要将全部样本预测为正样本,就能得到90%的准确率,但是完全没有意义。对于新数据,完全体现不出准确率。因此,在样本不平衡的情况下,得到的高准确率没有任何意义,此时准确率就会失效。所以,我们需要寻找新的指标来评价模型的优劣。
3、精确率
精确率(Precision)是针对预测结果而言的,其含义是在被所有预测为正的样本中实际为正样本的概率,表达式为:
在这里插入图片描述
精确率和准确率看上去有些类似,但是是两个完全不同的概念。精确率代表对正样本结果中的预测准确程度,准确率则代表整体的预测准确程度,包括正样本和负样本

4、召回率

召回率(Recall)是针对原样本而言的,其含义是在实际为正的样本中被预测为正样本的概率,表达式为:
在这里插入图片描述
下面我们通过一个简单例子来看看精确率和召回率。假设一共有10篇文章,里面4篇是你要找的。根据你的算法模型,你找到了5篇,但实际上在这5篇之中,只有3篇是你真正要找的。

那么算法的精确率是3/5=60%,也就是你找的这5篇,有3篇是真正对的。算法的召回率是3/4=75%,也就是需要找的4篇文章,你找到了其中三篇。以精确率还是以召回率作为评价指标,需要根据具体问题而定。
5、漏报率
反映分类器或者模型正确预测负样本纯度的能力,减少将正样本预测为负样本,即正样本被预测为负样本占总的正样本的比例。
在这里插入图片描述
6、误报率
反映分类器或者模型正确预测正样本纯度的能力,减少将负样本预测为正样本,即负样本被预测为正样本占总的负样本的比例。
在这里插入图片描述

7、F1分数
精确率和召回率又被叫做查准率和查全率,可以通过P-R图进行表示
在这里插入图片描述
如何理解P-R(精确率-召回率)曲线呢?或者说这些曲线是根据什么变化呢?

以逻辑回归举例,其输出值是0-1之间的数字。因此,如果我们想要判断用户的好坏,那么就必须定一个阈值。比如大于0.5指定为好用户,小于0.5指定为坏用户,然后就可以得到相应的精确率和召回率。但问题是,这个阈值是我们随便定义的,并不知道这个阈值是否符合我们的要求。因此为了寻找一个合适的阈值,我们就需要遍历0-1之间所有的阈值,而每个阈值都对应一个精确率和召回率,从而就能够得到上述曲线。

根据上述的P-R曲线,怎么判断最好的阈值点呢?首先我们先明确目标,我们希望精确率和召回率都很高,但实际上是矛盾的,上述两个指标是矛盾体,无法做到双高。因此,选择合适的阈值点,就需要根据实际问题需求,比如我们想要很高的精确率,就要牺牲掉一些召回率。想要得到很高的召回率,就要牺牲掉一些精准率。但通常情况下,我们可以根据他们之间的平衡点,定义一个新的指标:F1分数(F1-Score)。F1分数同时考虑精确率和召回率,让两者同时达到最高,取得平衡。F1分数表达式为

在这里插入图片描述

上图P-R曲线中,平衡点就是F1值的分数

### 准确率、精确率、召回率 F1 分数的定义与计算 #### 1. 准确率 (Accuracy) 准确率是指预测正确的样本占总样本的比例。它适用于类别分布较为平衡的数据集。 $$ \text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{FP} + \text{FN} + \text{TN}} $$ 其中: - TP (True Positive): 正类被正确预测的数量; - TN (True Negative): 负类被正确预测的数量; - FP (False Positive): 实际为负类却被预测为正类的数量; - FN (False Negative): 实际为正类却被预测为负类的数量[^1]。 --- #### 2. 精确率 (Precision) 精确率表示模型预测为正类的样本中有多少比例实际上是正类。它是关注于减少误报的重要指标。 $$ \text{Precision} = \frac{\text{TP}}{\text{TP} + \text{FP}} $$ 高精确率意味着模型很少错误地将负类标记为正类[^2]。 --- #### 3. 召回率 (Recall) 召回率也称为灵敏度或真阳性率,表示实际为正类的样本中有多少比例被正确预测为正类。这是减少漏报的关键指标。 $$ \text{Recall} = \frac{\text{TP}}{\text{TP} + \text{FN}} $$ 高召回率表明模型能够很好地捕捉到大部分的实际正类样本[^1]。 --- #### 4. F1 分数 (F1 Score) F1 分数是对精确率召回率的一种调平均,用于综合评价模型的表现。其公式如下: $$ \text{F1} = 2 \cdot \frac{\text{Precision} \cdot \text{Recall}}{\text{Precision} + \text{Recall}} $$ 或者可以改写为: $$ \text{F1} = \frac{2 \cdot \text{TP}}{2 \cdot \text{TP} + \text{FP} + \text{FN}} $$ F1 分数取值范围为 [0, 1],越接近 1 表明模型表现越好。良好的 F1 分数意味着误报率漏报率均较低[^3]。 --- 以下是基于混淆矩阵实现这些指标的 Python 示例代码: ```python def calculate_metrics(tp, tn, fp, fn): accuracy = (tp + tn) / (tp + tn + fp + fn) if (tp + tn + fp + fn) != 0 else 0 precision = tp / (tp + fp) if (tp + fp) != 0 else 0 recall = tp / (tp + fn) if (tp + fn) != 0 else 0 f1_score = 2 * ((precision * recall) / (precision + recall)) if (precision + recall) != 0 else 0 return { 'accuracy': accuracy, 'precision': precision, 'recall': recall, 'f1_score': f1_score } # 示例数据 true_positive = 90 false_positive = 15 false_negative = 8 true_negative = 70 metrics = calculate_metrics(true_positive, true_negative, false_positive, false_negative) for metric_name, value in metrics.items(): print(f"{metric_name.capitalize()}: {value:.4f}") ``` 运行以上代码会输出各个指标的具体数值。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值