Sklearn.metrics评估方法介绍

本文介绍了Sklearn库中的评估指标,包括Classification_report提供的precision、recall、f1-score和support,accuracy_score、confusion_matrix、F1_score、fbeta_score以及ROC_AUC和PR AUC的概念和计算。文章强调了ROC曲线和AUC在衡量模型性能中的重要性,特别是对于样本不平衡问题的评估。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在介绍指标之前,先回顾一下很重要的四个概念,可以说指标总是围绕着这四个来计算的。

真实 1 真实 0
预测 1 true positive false positive
预测 0 false negative true negative

记忆小技巧:true/false 后面的pos or neg与预测值有关,预测为1就是positive,为0就是negative,然后如果真实值和预测值一样,那就是true,不一样就是false。

Precision: tp/tp+fp 在所有预测1中有多少预测是正确的 针对预测1
recall: tp/tp+fn 在所有真实 1中有多少预测是正确的 针对真实值1
accuracy: tp+tn/tp+tn+fp+fn 所有预测正确的 针对全部样本
F-score: (1+P^ 2 ) * (precisionrecall)/P^2precision+recall

当P=1时 就是F1 score,此时recall和precision都很重要,权重相同
当P=2时 就是F2 score&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值