学习笔记:二分类算法的评判标准

本文介绍了二分类模型评估的重要概念如TP、TN、FP、FN,以及基于这些概念衍生出的评估指标,包括正确率、准确率、召回率、特效度和F-Measure等,并详细解释了ROC曲线和AUC值的计算方法及其意义。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近在写逻辑回归,不知道有什么分类的评判标准,问了导师之后了解到有F-Score、Roc、Auc等标准。

在画Roc图像之前,先去了解了很多关于分类的评判标准的术语,在此总结整理。

一、TP、TN、FP、FN

    对于二分类,若默认positive为1,negative为0。则有:

    TP(TRUE POSITIVE):预测正确(正确的预测成正例),即样本值为1,预测值为1

    TN(TRUE NEGATIVE):预测正确(正确的预测成反例),即样本值为0,预测值为0

    FP(FALSE POSIVTIVE):预测错误(错误的预测成正例),即样本值为0,预测值为1

    FN(FALSE NEGATIVE):预测错误(错误的预测成反例),即样本值为1,预测值为0

    P = TP + FN(样本中正例的个数)

    N = TN +FP (样本中反例的个数)

二、正确率、准确率、召回率、特效度、F-Measure

    1)正确率(accuracy),即预测正确的样本数占所有样本的比例。

        accuracy = (TP + TN) / (TP + TN + FP + FN) = (TP + TN )/(P + N)

        错误率即error rate=  1 - accuracy

    2)准确率(precision),即被预测为正例中正例的比例。

        precision = TP / (TP + FP)

    3)召回率(recall),也称敏感度(sensitivity),即所有正例中被预测为正例的比例。(对正例的识别能力)

        sensitivity = recall = TP / (TP + FN) = TP / P    

    4)特效度(specificity),即所有负例中被预测为负例的比例。(对负例的识别能力)

        specificity = TN / (TN + FP) = TN / N

    5)F-Measure,也称F-Score,是precision和recall的加权调和平均,用于权衡一个模型的好坏。

        F-score = (2 * precision * recall)/(precision + recall)

三、Roc曲线、Auc

    Roc曲线(receiver operating characteristic curve)即接受者操作特征曲线,是反映敏感性和特异性连续变量的综合指标。

    曲线的横坐标为FPR(False Positive Rate) ,即预测为正例但实际为负例的样本数所占所有负例样本的比例。

        FPR = 1 - specificity = FP / (TN + FP) = FP / N

    纵坐标为TPR(True Positive Rate) ,即所有正例中被预测为正例的比例

        TPR = sensitivity = recall = TP / (TP + FN) = TP / P

    拿逻辑回归举例,一般情况下我们都使用0.5作为分类的阈值,若我们的假设函数的值(概率值)超过了0.5,我们即判定该样本属于正例,则预测为1。反之,预测为0。而Roc曲线的每一个坐标值为某个阈值(threshold)下的(FPR,TPR)。这样我们通过一组阈值,就可以求出一组Roc曲线的坐标值,从而可以画出Roc曲线(当然阈值设定得越多,曲线越平滑),Roc曲线一般都在y = x这条直线之上。

    Auc(Area under Curve)则是Roc曲线与横纵坐标的面积。范围是0-1,一般是大于0.5,越接近1越好。当Auc的值为0.5时,说明该模型的正确率就和我们抛硬币出现正反的概率是一样的,也就是基本上没有用,Auc要大于0.5或者小于0.5才有意义。(小于0.5将预测结果取反就变成大于0.5的情况)。

    以上内容是我在网上到处搜刮,加上个人理解所总结的,很多内容没有深究,理解可能也有偏差,但对我来说暂时是够用了。

 

参考博客:

                https://blog.youkuaiyun.com/hermito/article/details/51076728 

                https://www.jianshu.com/p/c61ae11cc5f6

### 关于周志华《机器学习》(西瓜书)第二章的学习笔记 #### 模型评估与选择概述 模型评估与选择是机器学习领域的重要组成部分,旨在通过合理的方法评价不同模型的表现并挑选最优者。这一过程不仅涉及如何衡量单个模型的好坏,还包括怎样对比多个候选方案以做出最佳决策。 #### 偏差、方差和噪声的概念解析 偏差度量了学习算法的期望预测与实际结果之间的差距,反映了算法自身的拟合精度;方差描述的是相同规模训练集变化引起的学习效果波动情况,体现了数据扰动带来的影响;而噪声则设定了给定任务下所有可能采用的学习方法能达到的最佳预期泛化误差界限,揭示了问题本身固有的复杂性和挑战性[^2]。 #### 性能度量指标——P-R图及其应用 为了更直观地展示各类分类器的工作特性,通常会绘制精确率-召回率(Precision-Recall, P-R)曲线来辅助分析。当面对多组实验结果时,可以通过观察这些图形相互间的位置关系来进行优劣评判:如果某条曲线始终位于另一条之上,则表明前者具有更好的整体表现;而对于那些存在交点的情况,则需进一步计算各自下方区域面积大小作为判断依据之一。此外,“平衡点”作为一种特殊的性能测度,在特定条件下也能提供有价值的参考信息[^3]。 #### 偏差-方差分解理论简介 该理论为理解学习算法的一般化能力提供了框架性的指导思路,通过对平均测试错误率实施拆分操作,可以深入剖析导致过拟合现象背后的原因所在,并据此探索改进措施的方向。具体而言,总误差由三部分构成——不可约减误差点(即噪声)、平方形式表达出来的偏差项以及线性累加而成的方差成分[^4]。 ```python import numpy as np from sklearn.model_selection import train_test_split from sklearn.metrics import precision_recall_curve, auc def evaluate_model_performance(model, X, y): """ 计算并返回PR曲线下面积(AUC),用于量化模型的整体性能。 参数: model (object): 已经训练好的分类模型实例。 X (array-like of shape (n_samples, n_features)): 测试特征矩阵。 y (array-like of shape (n_samples,)): 对应的真实标签向量。 返回: float: PR AUC得分。 """ # 划分训练集/验证集 X_train, X_val, y_train, y_val = train_test_split(X, y, test_size=0.2) # 使用训练集拟合模型 model.fit(X_train, y_train) # 获取验证集中各观测对应的概率估计值 probas_pred = model.predict_proba(X_val)[:, 1] # 绘制PR曲线并求得AUC分数 precisions, recalls, _ = precision_recall_curve(y_val, probas_pred) pr_auc_score = auc(recalls, precisions) return pr_auc_score ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值