从混淆矩阵看各种度量

这篇博客详细介绍了混淆矩阵及其在机器学习中的应用,包括如何生成混淆矩阵,基本术语解释,如TP、FP、FN、TN,并探讨了sensitivity、specificity、precision、NPV和accuracy等关键度量指标,帮助读者深入理解分类器的性能评估。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

机器学习中各种度量很容易搞晕学习者的头脑。但是如果把他们和混淆矩阵一起来看的话,会容易理解很多。

我也是经常接触,所以有一些自己的感悟,记录下来。

混淆矩阵(confusion matrix)

我理解上的混淆矩阵就是一个分类器对于正反例(假设是二分类,多分类也类似)的混淆程度。

混淆矩阵

我有见过两种不同混淆矩阵,主要区别是对于真实的类别和猜测的类别的位置互换。其实本质上没有大区别的,看每一个人的习惯。这里采用wikipedia的格式。

初学者一般看到这个矩阵的描述就晕了。怎么那么多字母?TP,FP,FN,TN是什么?就算告诉你TP=True Positive的意思,你也要晕半天,更别说之后的各种度量公式。如PPV, NPV,Recall, F1,ROC等等。

怎么生成混淆矩阵

假设测试数据中我有5个猫图片和8个非猫图片的例子。首先在猫(P)的地方的P填写5, 非猫(N)的地方的N填写8。说明测试数据中真实的类别猫有5例,非猫有8例。

在TP,FP,FN,TN的地方都填上0。

接下去从13例测试例子中一例一例的问分类器(也就是我),比如拿一例猫图片问我,我回答是猫,那么在TP的地方就加1。如果我回答了非猫,那么在FN的地方就加1。再比如拿一例非猫的图片问我,我回答是非猫,那么在TN的地方加1,如果我回答了猫,那么在FP的地方加1。

等13例都问完之后,那么整个混淆矩阵也就完成了。如下图:
混淆矩阵

基本用语的解释

condition positive (P) = 测试数据中正例的数量

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值