模型评价(AUC,ROC曲线,ACC, 敏感性, 特异性,精确度,召回率,PPV, NPV, F1)

本文介绍了评估分类器性能的重要指标,包括混淆矩阵、精确率、召回率等,并详细解释了ROC曲线与AUC值的含义及计算方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

目录

混淆矩阵

精确率 / precision / PPV / 查准率

召回率 / Recall / True positive rate / TPR / 灵敏度 /  敏感性 / sensitive/ 查全率

ROC曲线

AUC(Area under the ROC curve)

cut-off点

计算步骤如下:

参考文献:


 

混淆矩阵

这里写图片描述

混淆矩阵包含四部分的信息:

  1. True negative(TN),称为真阴率,表明实际是负样本预测成负样本的样本数
  2. False positive(FP),称为假阳率,表明实际是负样本预测成正样本的样本数
  3. False negative(FN),称为假阴率,表明实际是正样本预测成负样本的样本数
  4. True positive(TP),称为真阳率,表明实际是正样本预测成正样本的样本数

对照着混淆矩阵,很容易就能把关系、概念理清楚,但是久而久之,也很容易忘记概念。不妨我们按照位置前后分为两部分记忆,前面的部分是True/False表示真假,即代表着预测的正确性,后面的部分是positive/negative表示正负样本,即代表着预测的结果,所以,混淆矩阵即可表示为正确性-预测结果的集合。现在我们再来看上述四个部分的概念(均代表样本数,下述省略):

  1. TN,预测是负样本,预测对了
  2. FP,预测是正样本,预测错了
  3. FN,预测是负样本,预测错了
  4. TP,预测是正样本,预测对了

 

 

召回率 / Recall / True positive rate / TPR / 灵敏度 /  敏感性 / sensitive/ 查全率

召回率是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。那也有两种可能,一种是把原来的正类预测成正类(TP),另一种就是把原来的正类预测为负类(FN)。

                      R = TP/(TP+FN)  

精确率 / precision / PPV / 查准率

精确率是针对我们预测结果而言的,它表示的是预测为正的样本中有多少是对的。那么预测为正就有两种可能了,一种就是把正类预测为正类(TP),另一种就是把负类预测为正类(FP)。

                      P = TP/(TP+FP)

特异性 / specificity

样本中的负类被预测为负类的比例

 

ROC曲线

事实上,要一下子弄清楚什么是AUC并不是那么容易,首先我们要从ROC曲线说起。对于某个二分类分类器来说,输出结果标签(0还是1)往往取决于输出的概率以及预定的概率阈值,比如常见的阈值就是0.5,大于0.5的认为是正样本,小于0.5的认为是负样本。如果增大这个阈值,预测错误(针对正样本而言,即指预测是正样本但是预测错误,下同)的概率就会降低但是随之而来的就是预测正确的概率也降低;如果减小这个阈值,那么预测正确的概率会升高但是同时预测错误的概率也会升高。实际上,这种阈值的选取也一定程度上反映了分类器的分类能力。我们当然希望无论选取多大的阈值,分类都能尽可能地正确,也就是希望该分类器的分类能力越强越好,一定程度上可以理解成一种鲁棒能力吧。
为了形象地衡量这种分类能力,ROC曲线横空出世!如下图所示,即为一条ROC曲线(该曲线的原始数据第三部分会介绍)。现在关心的是:

  • 横轴:False Positive Rate(假阳率,FPR) / 1-特异性
  • 纵轴:True Positive Rate(真阳率,TPR) / TPR / 灵敏度 /  敏感性 / sensitive / 召回率 / Recall
  •  

 

  • 假阳率,简单通俗来理解就是预测为正样本但是预测错了的可能性,显然,我们不希望该指标太高。

    FPR=FPTN+FP

  • 真阳率,则是代表预测为正样本但是预测对了的可能性,当然,我们希望真阳率越高越好。

    TPR=TPTP+FN

显然,ROC曲线的横纵坐标都在[0,1]之间,自然ROC曲线的面积不大于1。现在我们来分析几个特殊情况,从而更好地掌握ROC曲线的性质

  • (0,0):假阳率和真阳率都为0,即分类器全部预测成负样本
  • (0,1):假阳率为0,真阳率为1,全部完美预测正确,happy
  • (1,0):假阳率为1,真阳率为0,全部完美预测错误,悲剧
  • (1,1):假阳率和真阳率都为1,即分类器全部预测成正样本
  • TPR=FPR,斜对角线,预测为正样本的结果一半是对的,一半是错的,代表随机分类器的预测效果

于是,我们可以得到基本的结论:ROC曲线在斜对角线以下,则表示该分类器效果差于随机分类器,反之,效果好于随机分类器,当然,我们希望ROC曲线尽量除于斜对角线以上,也就是向左上角(0,1)凸。

 

AUC(Area under the ROC curve)

ROC曲线一定程度上可以反映分类器的分类效果,但是不够直观,我们希望有这么一个指标,如果这个指标越大越好,越小越差,于是,就有了AUC。AUC实际上就是ROC曲线下的面积。AUC直观地反映了ROC曲线表达的分类能力

  • AUC = 1,代表完美分类器
  • 0.5 < AUC < 1,优于随机分类器
  • 0 < AUC < 0.5,差于随机分类器

 

cut-off点

可以通过到(0,1)点的最小距离确定

 

计算步骤如下:

  1. 得到结果数据,数据结构为:(输出概率,标签真值)
  2. 对结果数据按输出概率进行分组,得到(输出概率,该输出概率下真实正样本数,该输出概率下真实负样本数)。这样做的好处是方便后面的分组统计、阈值划分统计等
  3. 对结果数据按输出概率进行从大到小排序
  4. 从大到小,把每一个输出概率作为分类阈值,统计该分类阈值下的TPR和FPR
  5. 微元法计算ROC曲线面积、绘制ROC曲线

 

 

 

参考文献:

统计学习方法,李航

机器学习,周志华

https://segmentfault.com/a/1190000010410634

https://blog.youkuaiyun.com/u012089317/article/details/52156514

 

03-12
<think>好的,我现在要详细解答用户关于AUC-ROC曲线的问题。首先,我需要回顾一下自己对这些概念的理解,并确保信息的准确性。用户提到了几个引用资料,我需要结合这些内容来组织回答,同时遵循系统级指令中的格式要求。 首先,AUC-ROC是机器学习中用于评估二分类模型性能的重要指标。ROC曲线全称是受试者工作特征曲线,而AUC则是ROC曲线下的面积,用来量化模型的整体性能。用户可能想知道这两者的具体定义、如何解读,以及它们在模型评估中的实际应用。 接下来,我需要分步骤解释这些概念。首先定义ROC曲线,说明其横轴(FPR)和纵轴(TPR)的含义,以及它们如何随着分类阈值的变化而变化。然后,解释AUC值的意义,比如AUC为1表示完美分类,0.5相当于随机猜测,这时需要强调AUC如何反映模型的区分能力。 然后,结合用户提供的引用资料,特别是引用[2]和[3],其中提到ROC曲线接近左上角表示模型准确率高,AUC值高则性能更好。这部分需要自然地融入回答中,并正确添加引用标识。例如,在解释ROC曲线的位置时,引用[2]的内容。 此外,用户可能对如何绘制ROC曲线以及计算AUC的方法感兴趣。我需要简要说明绘制步骤,比如需要不同阈值下的TPR和FPR,然后连接这些点形成曲线AUC的计算方法可以通过梯形法则或积分,这部分可能需要提及,但不需要太深入数学细节,以保持回答的实用性。 还要注意用户的应用场景,可能想知道AUC-ROC模型选择、调参或比较中的作用。例如,引用[3]提到AUC不受类别不平衡的影响,这一点很重要,需要在回答中突出,说明为什么在处理不平衡数据时AUC比准确率更有优势。 同时,需要确保回答中的数学公式使用正确的LaTeX格式,如FPR公式写成$FPR = \frac{FP}{FP + TN}$,TPR写成$TPR = \frac{TP}{TP + FN}$,并用$$包围独立公式。此外,所有行内公式如$AUC$需要用$符号包裹。 可能还需要比较AUC与其他指标(如准确率、F1-score)的不同,指出AUC的综合性和对类别不平衡的鲁棒性,这部分可以引用资料中的内容来支持观点。 最后,生成的相关问题需要围绕AUC-ROC的延伸话题,比如如何解读不同AUC值、与其他指标的比较、应用场景、计算方法及类别不平衡的影响。这些问题应帮助用户进一步探索该主题。 在整理回答时,要确保结构清晰,分点解释,每个部分自然过渡,并在适当的位置添加引用标记。同时,检查LaTeX语法是否正确,避免格式错误。例如,独立公式是否使用$$,行内公式是否正确使用$符号。 现在,综合以上思考,组织成一个逻辑连贯的回答,满足用户的需求,并符合给定的格式要求。</think>### AUC-ROC曲线详解及在分类模型评估中的作用 #### 1. **基本概念** - **ROC曲线**(Receiver Operating Characteristic Curve)是用于评估二分类模型性能的工具,横轴为**假正率**(False Positive Rate, FPR),纵轴为**真正率**(True Positive Rate, TPR),其计算公式为: $$ FPR = \frac{FP}{FP + TN}, \quad TPR = \frac{TP}{TP + FN} $$ 其中,$TP$(真正例)、$FP$(假正例)、$TN$(真负例)、$FN$(假负例)构成混淆矩阵[^1][^3]。 - **AUC**(Area Under the Curve)是ROC曲线下的面积,取值范围为$[0,1]$,用于量化模型区分正负类的能力。AUC值越接近1,模型性能越好;若AUC=0.5,则等同于随机猜测[^2]。 #### 2. **ROC曲线的绘制与解读** - **绘制方法**:通过调整分类阈值(如逻辑回归中的概率截断值),计算不同阈值下的TPR和FPR,将各点连接成曲线。 - **关键形态**: - **靠近左上角**:模型准确率高(高TPR、低FPR)[^2]。 - **接近对角线**:模型性能与随机猜测相当(AUC=0.5)。 - **低于对角线**:可能因模型预测反向导致,需重新检查数据或模型。 #### 3. **AUC值的意义** - **AUC=1**:完美分类器,所有正负样本均被正确区分。 - **AUC>0.9**:模型具有优秀的区分能力。 - **AUC<0.7**:模型性能较差,需优化特征或算法。 #### 4. **在模型评估中的应用** - **模型比较**:AUC提供单一数值指标,便于横向对比不同模型的性能。 - **类别不平衡鲁棒性**:AUC不受正负样本比例影响,适用于评估信用卡欺诈检测、疾病诊断等不平衡场景[^3]。 - **调参指导**:通过观察不同参数下AUC的变化,选择最佳超参数组合。 #### 5. **与其他指标的关系** - **对比准确率**:AUC更关注模型对正负类的整体区分能力,而非单纯分类正确率。 - **对比F1-score**:F1-score依赖于特定阈值,而AUC综合所有阈值下的表现,更全面[^1]。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值