| 真实标签(下) 预测标签(右) | Positive | Negative |
|---|---|---|
| Positive | TP | FN |
| Negative | FP | TN |
TP:正样本被预测为正样本的个数
FP:负样本被预测为正样本的个数
TN:负样本被预测为负样本的个数
FN:正样本被预测为负样本的个数
TP+FP:被预测为正样本的个数
FN+TN:被预测为负样本的个数
TP+FN:真实正样本的个数
FP+TN:真实负样本的个数
TP+TN+FP+FN:正负样本个数
准确率:
A
c
c
u
r
a
c
y
=
T
P
+
T
N
T
P
+
T
N
+
F
P
+
F
N
Accuracy =\frac{TP+TN}{TP+TN+FP+FN}
Accuracy=TP+TN+FP+FNTP+TN
精确率(查准率):
精确率是针对预测结果而言的,它表示的是预测为正的样本中有多少是真正的正样本。那么预测为正就有两种可能了,一种就是把正类预测为正类(TP),另一种就是把负类预测为正类(FP),也就是
P r e c i s i o n = T P T P + F P Precision =\frac{TP}{TP+FP} Precision=TP+FPTP
召回率(查全率):
召回率是针对原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。那也有两种可能,一种是把原来的正类预测成正类(TP),另一种就是把原来的正类预测为负类(FN)。
R e c a l l = T P T P + F N Recall =\frac{TP}{TP+FN} Recall=TP+FNTP
其实就是分母不同,一个分母是预测为正的样本数,另一个是原来样本中所有的正样本数。
在信息检索领域,精确率和召回率又被称为查准率和查全率,
查准率=检索出的相关信息量 / 检索出的信息总量
查全率=检索出的相关信息量 / 系统中的相关信息总量
https://www.zhihu.com/question/19645541
注:
F
1
−
s
c
o
r
e
=
2
∗
P
r
e
c
i
s
i
o
n
∗
R
e
c
a
l
l
P
r
e
c
i
s
i
o
n
+
R
e
c
a
l
l
F1-score = 2*\frac{Precision*Recall}{Precision+Recall}
F1−score=2∗Precision+RecallPrecision∗Recall
=
2
T
P
2
T
P
+
F
N
+
F
P
= \frac{2TP}{2TP+FN+FP}
=2TP+FN+FP2TP
查准率和查全率两者不可兼得!
多分类举例:
| 真实标签(下) 预测标签(右) | P_1 | P_2 | P_3 |
|---|---|---|---|
| T_1 | 30 | 50 | 20 |
| T_2 | 20 | 60 | 20 |
| T_3 | 10 | 10 | 80 |
以类别2为例:
TP:类别为2,预测为2的个数60
TN:类别不为2,预测也不为2的个数30+20+10+80=140
FP:类别不为2,预测为2的个数50+10=60
FN:类别为2,预测不为2的个数20+20=40
如有错误请留言指出。。。
公式格式参考:
https://blog.youkuaiyun.com/ygdxt/article/details/82288735
内容参考:
https://blog.youkuaiyun.com/program_developer/article/details/79937291
https://www.cnblogs.com/pprp/p/11241954.html
准确率、精确率、召回率、F1 score以及ROC
https://www.jianshu.com/p/1afbda3a04ab

本文详细解析了机器学习中的关键评估指标,包括准确率、精确率、召回率和F1分数,以及它们在多分类任务中的应用实例,帮助读者掌握评价模型性能的窍门。
1621

被折叠的 条评论
为什么被折叠?



