机器学习:分类模型常用的评估指标:混淆矩阵、精确率、召回率、F1 score、P-R曲线、ROC曲线、AUC面积、KS曲线

1、混淆矩阵(Confuse Matrix)

(1)若一个实例是正类,并且被预测为正类,即为真正类TP(True Positive )
(2)若一个实例是正类,但是被预测为负类,即为假负类FN(False Negative )
(3)若一个实例是负类,但是被预测为正类,即为假正类FP(False Positive )
(4)若一个实例是负类,并且被预测为负类,即为真负类TN(True Negative )
2、准确率(Accuracy) 准确率是常用的一个评价指标,但是不适合样本不均衡的情况。

3、精确率(Precision) 又称查准率,正确预测为正样本(TP)占预测为正样本(TP+FP)的百分比。

4、召回率(Recall) 又称为查全率,正确预测为正样本(TP)占正样本(TP+FN)的百分比。

5、F1 Score 精确率和召回率是相互影响的,精确率升高则召回率下降,召回率升高则精确率下降,如果需要兼顾二者,就需要精确率、召回率的结合F1 Score。

6、P-R曲线(Precision-Recall Curve)

P-R曲线是描述精确率和召回率变化的曲线

7、ROC(Receiver Operating Characteristic)

ROC曲线将假正例率(FPR)定义为 X 轴,真正例率(TPR)定义为 Y 轴。

8、AUC(Area Under Curve)

AUC(Area Under Curve)被定义为 ROC曲线 下与坐标轴围成的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围在0.5和1之间。AUC越接近1.0,检测方法真实性越高;等于0.5时,则真实性最低,无应用价值。

9.KS(Kolmogorov-Smirnov)

K-S曲线与ROC曲线类似,不同在于

ROC曲线将真正例率和假正例率作为横纵轴
K-S曲线将真正例率和假正例率都作为纵轴,横轴则由选定的阈值来充当。 公式如下:
= ( − )

KS不同代表的不同情况,一般情况KS值越大,模型的区分能力越强,但是也不是越大模型效果就越好,如果KS过大,模型可能存在异常,所以当KS值过高可能需要检查模型是否过拟合。以下为KS值对应的模型情况,但此对应不是唯一的,只代表大致趋势。

KS值<0.2,一般认为模型没有区分能力。
KS值[0.2,0.3],模型具有一定区分能力,勉强可以接受
KS值[0.3,0.5],模型具有较强的区分能力。
KS值大于0.75,往往表示模型有异常。
具体示例代码:

混淆矩阵

import numpy as np
from sklearn.metrics import confusion_matrix
y_pred = [0, 1, 0, 1]
y_true = [0, 1, 1, 0]
print('混淆矩阵:\n',confusion_matrix(y_true, y_pred))

accuracy

from sklearn.metrics import accuracy_score
y_pred = [0, 1, 0, 1]
y_true = [0, 1, 1, 0]
print('ACC:',accuracy_score(y_true, y_pred))

Precision,Recall,F1-score

from sklearn import metrics
y_pred = [0, 1, 0, 1]
y_true = [0, 1, 1, 0]
print('Precision',metrics.precision_score(y_true, y_pred))
print('Recall',metrics.recall_score(y_true, y_pred))
print('F1-score:',metrics.f1_score(y_true, y_pred))

P-R曲线

import matplotlib.pyplot as plt
from sklearn.metrics import precision_recall_curve
y_pred = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1]
y_true = [0, 1, 1, 0, 1, 0, 1, 1, 0, 1]
precision, recall, thresholds = precision_recall_curve(y_true, y_pred)
plt.plot(precision, recall)

ROC曲线

from sklearn.metrics import roc_curve
y_pred = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1]
y_true = [0, 1, 1, 0, 1, 0, 1, 1, 0, 1]
FPR,TPR,thresholds=roc_curve(y_true, y_pred)
plt.title('ROC')
plt.plot(FPR, TPR,'b')
plt.plot([0,1],[0,1],'r--')
plt.ylabel('TPR')
plt.xlabel('FPR')

AUC

import numpy as np
from sklearn.metrics import roc_auc_score
y_true = np.array([0, 0, 1, 1])
y_scores = np.array([0.1, 0.4, 0.35, 0.8])
print('AUC socre:',roc_auc_score(y_true, y_scores))

KS值 在实际操作时往往使用ROC曲线配合求出KS值

from sklearn.metrics import roc_curve
y_pred = [0, 1, 1, 0, 1, 1, 0, 1, 1, 1]
y_true = [0, 1, 1, 0, 1, 0, 1, 1, 1, 1]
FPR,TPR,thresholds=roc_curve(y_true, y_pred)
KS=abs(FPR-TPR).max()
print('KS值:',KS)
### 使用交叉验证、AUC-ROC 曲线精确召回率F1 分数评估优化机器学习模型性能 #### 三、交叉验证 (Cross Validation) 为了更可靠地估计模型的泛化能力,可以采用 k 折交叉验证方法。此方法将数据集划分为 k 个子集,在每次迭代中使用其中一个作为测试集而其余部分用于训练。最终的结果取多次实验平均值。 ```python from sklearn.model_selection import cross_val_score from sklearn.datasets import load_iris from sklearn.linear_model import LogisticRegression X, y = load_iris(return_X_y=True) clf = LogisticRegression(max_iter=200) scores = cross_val_score(clf, X, y, cv=5) print("Cross-validation scores:", scores.mean()) ``` 上述代码展示了如何利用 `cross_val_score` 函数执行五折交叉验证,并计算逻辑回归分类器在鸢尾花数据集上的得分均值[^2]。 #### 四、绘制 AUC-ROC)曲线提供了关于二元分类器表现的信息。它描绘了真阳(True Positive Rate, TPR)相对于假阳(False Positive Rate,FPR),当阈值变化的变化情况;曲线面积越大越好。 ```python import matplotlib.pyplot as plt from sklearn.metrics import roc_curve, auc from sklearn.preprocessing import label_binarize from sklearn.multiclass import OneVsRestClassifier y = label_binarize(y, classes=[0, 1, 2]) n_classes = y.shape[1] classifier = OneVsRestClassifier(LogisticRegression(max_iter=200)) y_score = classifier.fit(X_train, y_train).decision_function(X_test) fpr = dict() tpr = dict() roc_auc = dict() for i in range(n_classes): fpr[i], tpr[i], _ = roc_curve(y_test[:, i], y_score[:, i]) roc_auc[i] = auc(fpr[i], tpr[i]) plt.figure() lw = 2 colors = ['aqua', 'darkorange', 'cornflowerblue'] for i, color in zip(range(n_classes), colors): plt.plot( fpr[i], tpr[i], color=color, lw=lw, label='ROC curve of class {0} (area = {1:0.2f})'.format(i, roc_auc[i]), ) plt.plot([0, 1], [0, 1], 'k--', lw=lw) plt.xlim([0.0, 1.0]) plt.ylim([0.0, 1.05]) plt.xlabel('False Positive Rate') plt.ylabel('True Positive Rate') plt.title('Receiver Operating Characteristic for multi-class data') plt.legend(loc="lower right") plt.show() ``` 这段脚本说明了怎样创建一个多类别问题中的 ROC 图表并展示各个类别的 AUC 值[^4]。 #### 五、计算精确(Precision) 和 召回率(Recall) 这两个度量分别反映了预测结果中有多少是真的以及所有真实实例被正确识别的比例。高精度意味着很少有误报,高召回则表示大多数正样本都被找出来。 ```python from sklearn.metrics import precision_recall_fscore_support predictions = clf.predict(X_test) precision, recall, fscore, support = precision_recall_fscore_support(y_test, predictions) print("Precision per class:", precision) print("Recall per class:", recall) ``` 这里给出了获取每种类别下 Precision 和 Recall 的方式[^3]。 #### 六、F1 Score 计算 F1 得分是 Precision 和 Recall 的调和平均数,提供了一个平衡两者之间关系的方法。对于那些希望找到最佳权衡点的应用场景来说非常重要。 ```python from sklearn.metrics import f1_score f1_macro_average = f1_score(y_true=y_test, y_pred=predictions, average='macro') print("Macro-average F1 score is", round(f1_macro_average, 2)) ``` 以上片段解释了如何基于宏平均法求得整体 F1-Score[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

rubyw

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值