如何在一张图中画多条ROC线?

本文通过Python的Matplotlib库绘制了正弦和余弦函数的比较图,展示了不同函数的周期特性。此外,使用Scikit-Learn库生成了ROC曲线,比较了Stacking、XGBoost和RandomForest三种模型的性能,提供了直观的模型评估方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

示例1:
import numpy as np
import matplotlib.pyplot as plt

x = np.linspace(0, 2 * (np.pi))  #numpy.linspace(开始,终值(含终值)),个数)
y1 = np.sin(x)
y2 = np.cos(x)

#画图
plt.title('Compare cosx with sinx')  #标题
#plt.plot(x,y)
#常见线的属性有:color,label,linewidth,linestyle,marker等
plt.plot(x, y1, color='cyan', label='sinx')
plt.plot(x, y2, 'b', label='cosx')#'b'指:color='blue'
plt.legend()  #显示上面的label
plt.xlabel('x')
plt.ylabel('f(x)')
plt.axis([0, 2*np.pi, -1, 1])#设置坐标范围axis([xmin,xmax,ymin,ymax])
#plt.ylim(-1,1)#仅设置y轴坐标范围
plt.show()

在这里插入图片描述

示例2:
from sklearn import metrics
import pylab as plt
def ks(y_predicted1, y_true1, y_predicted2, y_true2, y_predicted3, y_true3):
  Font={'size':18, 'family':'Times New Roman'}
  
  label1=y_true1
  label2=y_true2
  label3=y_true3
  fpr1,tpr1,thres1 = metrics.roc_curve(label1, y_predicted1)
  fpr2,tpr2,thres2 = metrics.roc_curve(label2, y_predicted2)
  fpr3,tpr3,thres3 = metrics.roc_curve(label3, y_predicted3)
  roc_auc1 = metrics.auc(fpr1, tpr1)
  roc_auc2 = metrics.auc(fpr2, tpr2)
  roc_auc3 = metrics.auc(fpr3, tpr3)
  
  plt.figure(figsize=(6,6))
  plt.plot(fpr1, tpr1, 'b', label = 'Stacking = %0.3f' % roc_auc1, color='Red')
  plt.plot(fpr2, tpr2, 'b', label = 'XGBoost = %0.3f' % roc_auc2, color='k')
  plt.plot(fpr3, tpr3, 'b', label = 'Random Forest = %0.3f' % roc_auc3, color='RoyalBlue')
  plt.legend(loc = 'lower right', prop=Font)
  plt.plot([0, 1], [0, 1],'r--')
  plt.xlim([0, 1])
  plt.ylim([0, 1])
  plt.ylabel('True Positive Rate', Font)
  plt.xlabel('False Positive Rate', Font)
  plt.tick_params(labelsize=15)
  plt.show()
  return abs(fpr1 - tpr1).max(),abs(fpr2 - tpr2).max(),abs(fpr3 - tpr3).max()
import pandas as pd
r1 = pd.read_csv(r"C:\Users\Royalwen\Desktop\stacking.csv",header=None,names=['用户标识','预测','标签'])
r2 = pd.read_csv(r"C:\Users\Royalwen\Desktop\xgboost.csv",header=None,names=['用户标识','标签','预测'])
r3 = pd.read_csv(r"C:\Users\Royalwen\Desktop\rf.csv",header=None,names=['标签','预测'])

print("线下得分;")
print(ks(r1.预测, r1.标签, r2.预测, r2.标签, r3.预测, r3.标签))

在这里插入图片描述

### 如何比较和绘制多个机器学习模型的ROC曲线 为了有效地比较和绘制多个机器学习模型的ROC曲线,需遵循一系列具体的方法和技术。这些方法不仅有助于直观理解不同模型的表现差异,还能通过量化指标辅助决策。 #### 数据准备与预处理 在开始之前,确保所有参与比较的模型都已训练完毕,并且针对相同的测试集进行了预测。这一步骤至关重要,因为它保证了对比条件的一致性[^2]。 #### 计算混淆矩阵及相关统计量 对于每一个模型,基于其预测结果构建混淆矩阵,并从中提取必要的统计数据,如真阳性和假阳性数量等。这些数据用于后续计算TPR(True Positive Rate)和FPR(False Positive Rate),即ROC曲线上的各个点位置[^1]。 #### 绘制单个模型的ROC曲线 使用上述得到的真实标签以及各模型给出的正类别概率估计值作为输入参数调用绘函数。注意这里不是直接采用二元分类结果而是连续型得分的原因在于能够更精细地描绘出整个操作范围内的性能变化趋势[^3]。 ```python from sklearn.metrics import roc_curve, auc import matplotlib.pyplot as plt def plot_roc_curve(fpr, tpr, label=None): plt.plot(fpr, tpr, linewidth=2, label=label) plt.plot([0, 1], [0, 1], 'k--') # 斜率为1的直线代表随机猜测的效果 plt.axis([-0.005, 1, 0, 1]) plt.xlabel('False Positive Rate') plt.ylabel('True Positive Rate (Recall)') plt.title('Receiver operating characteristic example') for model_name, y_score in models_scores_dict.items(): fpr, tpr, _ = roc_curve(y_true, y_score) area_under_curve = auc(fpr, tpr) plot_roc_curve(fpr, tpr, "AUC={:.3f}".format(area_under_curve)) plt.legend() plt.show() ``` 此代码片段展示了如何为每个给定名称下的模型创建相应的ROC表,并标注各自的AUC值以供直观比较。 #### 对比分析 当所有的ROC曲线被成功在同一张上之后,则可以通过观察它们相对于理想情况的位置关系来进行初步判断——越接近于左上方意味着更好的区分能力;同时也可以关注每条曲线下方所围成区域大小(Area Under Curve),这一数值越大说明对应模型在整个工作区间内表现得更加优越[^4]。 #### 寻找最佳阈值 除了整体性的优劣评判外,有时还需要确定某个特定应用场景下最合适的判定界限。这时可以考虑引入Youden’s J statistic这样的标准来定位最优切割点,从而指导实际应用中的决策制定过程。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值