定义
TP: True Postive 预测正类,实际也是正类
FP:False Positive 预测正类,实际是负类
TN:True Negtive 预测负类,实际也是负类
FN:False Negtive 预测负类,实际是正类
TPR:TP / (TP+FN) 所有正例中有多少个正例被分出来。
FPR: FP / (TN+FP) 所有负例中有多少例子被分为正例。
模型预测的结果通常是一个概率值,概率值越大说明这个样本是正例的可能性越大,我们需要一个阈值(threshold)来定义多大的概率以上才是正例,通常这个值设为0.5,表示概率值大于0.5表示这个样本是正例,小于0.5表示这个样本是负例。
TPR曲线:横轴是阈值,纵轴是TPR,通过将阈值从1.0->0来画出很多个TPR的点,连起来得到TPR曲线。
FPR曲线:横轴是阈值,纵轴是FPR,通过将阈值从1.0->0来画出很多歌FPR的点,连起来得到FPR曲线。
KS值:TPR曲线和FPR曲线相距最远的距离值(同一个阈值的TPR和FPR的差值)
如图:

代码实现
from sklearn.metrics import roc_curve
import numpy as np
d

本文介绍了KS值的定义,并通过Python展示了如何计算TPR和FPR曲线之间的最大距离,作为衡量分类器性能的一个指标。文章讨论了不同的距离计算方式,并提供了代码实现第三种方法,该方法能反映模型区分能力最强的点且考虑了反向预测的情况。
最低0.47元/天 解锁文章
4401

被折叠的 条评论
为什么被折叠?



