机器学习笔记(IV)模型评估与选择(III)

本文介绍了评估二分类问题中分类器性能的重要指标,包括查准率、查全率、F1度量及其变化形式Fβ度量,并探讨了如何在多个二分类混淆矩阵的情况下综合评价这些指标。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

查准率,查全率与F1

对于二分类问题,可以将样例根据真实的类别与学习器预测类别的组合分为真正例(TP true positive)、假正例(FP false positive)、真反例(TN true nagative)、假反例(FN false negative)。
显然
TP+FP+TN+FN=样例总数

分类结果混淆矩阵

真实情况预测结果
正例反例
正例TPFN
反例 FP TN

查准率:

P=TPTP+FP

查全率:

R=TPFP+FN
一般情况下
P,R
P,R

Break-Even Point(BEP)

平衡点:
此时P=R,此时,查准率=查全率
如果一个学习算法APR曲线完全包住另一个算法BPR曲线则可以判断这个算法A比算法B要好。

F1度量

F1度量的一般形式

F1=2×P×RP+R=2×TP+TPTN
注:
F1度量是基于查准率和查全率的调和平均数定义的:
1F=12(1P+1R)

Fβ度量

一些情况下对于查准率和查全率的重视程度的不同,采用的一种F1度量的一般形式。
定义为:
Fβ=(1+β2)×P×R(β2×P)+R
其中β>0度量了查全率对查准率的相对重要性,β=1时退化为F1;β>1时查全率有更大影响,β<1时查准率有更大影响。
注:
Fβ度量是基于查准率和查全率的是加权调和平均数定义的:
1Fβ=11+β2(1P+β2R)

多个二分类混合矩阵

一般做法

在各个混淆矩阵上分别计算出查准率和查全率
记为(P1,R1),(P2,R2),,(Pn,Rn)

宏(macro)

做法:先计算再平均
宏查准率:
macro-P=1nni=1Pi
宏查全率:
macro-R=1nni=1Ri
F1:
macro-F1=2×macro-P×macro-Rmacro-P+macro-R

微(micro)

做法:先平均再计算
TP¯¯¯¯¯=1nni=1TP

FP¯¯¯¯¯=1nni=1FP

TN¯¯¯¯¯=1nni=1TN

FN¯¯¯¯¯¯=1nni=1FN
微查准率:
micro-P=TP¯¯¯¯¯TP¯¯¯¯¯+FP¯¯¯¯¯
微查全率:
micro-R=TP¯¯¯¯¯TP¯¯¯¯¯+FN¯¯¯¯¯¯
F1
micro-F1=2×micro-P×micro-Rmicro-P+micro-R

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值