ROC与AUC曲线

本文通过逾期预测模型实例,详细解析了精确率、召回率、F1值、AUC及ROC曲线等模型评估指标的含义与计算方法,并阐述了它们之间的联系与区别。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作者:京东白条
链接:https://www.zhihu.com/question/30643044/answer/222274170
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

精确率、召回率、F1、AUC和ROC曲线其实都是评价模型好坏的指标,而且相互之间是有关系的,只是侧重点不同,题主如果理解了各指标的定义就能找出他们的区别与联系,下面就用一个例子解释这些指标。

以白条的逾期预测模型为例,这是一个有监督的二分类模型,模型对每个样本的预测结果为一个概率值,我们需要从中选取一个阈值来区分好用户和坏用户。

如果我们已经定好了一个阈值,超过此阈值定义为坏用户(1),低于此阈值定义为好用户(0),就可以计算出混淆矩阵(Confusion matrix)。

根据混淆矩阵我们可以得到TP,FN,FP,TN四个值,TP即为预测正确的坏用户的个数,FN为预测错误(预测为好用户)的坏用户个数,根据这四个值即可计算精确率、召回率和F1。

精确率(Precision)为TP/(TP+FP),即为在预测为坏人的人中,预测正确(实际为坏人)的人占比。

召回率(Recall)为TP/(TP+FN),即为在实际为坏人的人中,预测正确(预测为坏人)的人占比。

F1值是精确率和召回率的调和均值,即F1=2PR/(P+R),相当于精确率和召回率的综合评价指标。

另外还有Fα值,为F1值的变体, Fα=(α^2+1)PR/(α^2 P+R) ,利用α给P和R赋予不同的权重,若α=1则为F1值。

接着来说ROC曲线(Receiver operating characteristic curve),ROC曲线其实是多个混淆矩阵的结果组合,如果在上述模型中我们没有定好阈值,而是将模型预测结果从高到低排序,将每个概率值依次作为阈值,那么就有多个混淆矩阵。

对于每个混淆矩阵,我们计算两个指标TPR(True positive rate)和FPR(False positive rate),TPR=TP/(TP+FN)=Recall,TPR就是召回率。FPR=FP/(FP+TN),FPR即为实际为好人的人中,预测为坏人的人占比。我们以FPR为x轴,TPR为y轴画图,就得到了ROC曲线。

在画ROC曲线的过程中,若有一个阈值,高于此阈值的均为坏人,低于此阈值的均为好人,则认为此模型已完美的区分开好坏用户。此时坏用户的预测准确率(TPR)为1,同时好用户的预测错误率(FPR)为0,ROC曲线经过(0,1)点。

AUC(Area Under Curve)的值为ROC曲线下面的面积,若如上所述模型十分准确,则AUC为1。

但现实生活中尤其是工业界不会有如此完美的模型,一般AUC均在0.5到1之间,AUC越高,模型的区分能力越好,上图AUC为0.81。

若AUC=0.5,即与上图中红线重合,表示模型的区分能力与随机猜测没有差别。若AUC真的小于0.5,请检查一下是不是好坏标签标反了,或者是模型真的很差。。。

### 如何用Python绘制ROC_AUC曲线 要使用 Python 绘制 ROCAUC 曲线,可以借助 `scikit-learn` 库中的工具以及 `matplotlib` 来完成可视化。以下是详细的说明和示例代码。 #### 使用 `scikit-learn` 计算 ROCAUC 值 通过 `roc_curve` 函数可以从真实标签 (`y_true`) 和预测的概率得分 (`y_score`) 中计算出假正类率 (False Positive Rate, FPR) 和真正类率 (True Positive Rate, TPR),并进一步利用 `auc` 函数计算曲线下面积 (Area Under Curve, AUC)[^3]。 #### 可视化 ROC 曲线 为了更直观地展示模型的表现,可以通过 `matplotlib` 将 ROC 曲线绘制成图形,并标注其对应的 AUC 值[^1]。 下面是完整的代码示例: ```python from sklearn.metrics import roc_curve, auc import matplotlib.pyplot as plt import numpy as np # 示例数据:真实的类别标签和预测的概率分数 y_true = np.array([0, 0, 1, 1]) y_scores = np.array([0.1, 0.4, 0.35, 0.8]) # 计算FPR、TPR和阈值 fpr, tpr, thresholds = roc_curve(y_true, y_scores) # 计算AUCroc_auc = auc(fpr, tpr) # 创建画布 plt.figure(figsize=(8, 6)) plt.plot(fpr, tpr, color='darkorange', lw=2, label=f'ROC曲线 (AUC = {roc_auc:.4f})') plt.plot([0, 1], [0, 1], color='navy', lw=2, linestyle='--') # 随机分类器(AUC = 0.5) # 设置坐标轴范围和其他属性 plt.xlim([0.0, 1.0]) plt.ylim([0.0, 1.05]) plt.xlabel('假正率 (FPR)') plt.ylabel('真正率 (TPR)') plt.title('接收者操作特征 (ROC) 曲线') plt.legend(loc="lower right") # 显示图像 plt.show() ``` 上述代码实现了以下功能: 1. 利用 `roc_curve` 函数获取 FPR 和 TPR 的数值序列。 2. 调用 `auc` 方法计算 ROC-AUC 值。 3. 使用 `matplotlib` 进行可视化的呈现,其中还包括一条代表随机猜测的虚线作为对比基准。 #### 关于 ROCAUC 的意义 ROC 曲线展示了不同决策阈值下模型区分能力的变化情况;而 AUC 是衡量整个二元分类器效能的一个指标,它反映了任意一对正负样本被正确排序的可能性大小[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值