分类算法——模型评估(八)

本文讨论了在多分类任务中的混淆矩阵、精确率、召回率以及F1-score等评估指标。特别强调了在样本严重不均衡情况下,仅依赖准确率可能产生误导,提出使用ROC曲线和AUC指标来更全面地衡量模型性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1混淆矩阵

在分类任务下,预测结果与正确标记之间存在四种不同的组合,构成混淆矩阵(适用于多分类)
在这里插入图片描述

TP = True Possitive
FN = False Negative

2精确率(Precision)与召回率(Recall)

  • 精确率:预测结果为正例样本中真实为正例的比例

在这里插入图片描述

  • 召回率:真实为正例的样本中预测结果为正例的比例(查得全,对正样本的区分能力)
    在这里插入图片描述
    还有其他的评估标准,F1-score,反映了模型的稳健型。
    在这里插入图片描述

3分类评估报告API

  • sklearn.metrics.classification_report(y_true,y_pred,labels=[],target_names=None )
    • y_true:真实目标值
    • y_pred:估计器预测目标值
    • labels:指定类别对应的数字
    • target_names:目标类别名称
    • return:每个类别精确率与召回率

假设这样一个情况,如果99个样本癌症,1个样本非癌症,不管怎样我全都预测正例(默认癌症为正例),准确率就为99%但是这样效果并不好,这就是样本不均衡下的评估问题

准确率:99%
召回率:99/99 = 100%
精确率:99%
F1-score:2*99%*100%/ 199% = 99.497%

问题:如何衡量样本不均衡下的评估?
答:ROC曲线与AUC指标

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值