CV——图像分类的性能评价

本文深入探讨了机器学习中的正确率、错误率、精确率、召回率和F1值等关键评估指标,以及它们在衡量分类器性能时的作用。此外,还介绍了平均精度均值(mAP)、ROC曲线和AUC的概念,这些指标对于优化模型至关重要。通过对这些概念的了解,可以帮助开发者更好地调整和提升模型的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

正确率与错误率

正确率:被正确分类的样本数 / 总待分类的样本数

错误率:被错误分类的样本数 / 总待分类的样本数

关系:正确率+错误率=1

混淆矩阵

M实际1实际0
预测1TPFP
预测0FNTN
TP:被正确分类为正样本

FP:被错误分类为正样本

FN:被错误分类为负样本

TN:被正确分类为负样本

(记忆技巧:T为正确   F为错误   P为正样本  N为负样本)

精确率与召回率——综合F1

**Precision(查准率)**:TP / (FP+TP) —— 被检测为正样本中多少为 真正的样本

**Recall(查全率)**:TP / (TP+FN) ——所有的真正样本 有多少被检测为正样本

关系:两个指标要同时高分才能证明分类器性能好,所以有了 F1值

**F1值**(1/Precison + 1/Recall) / 2 —— 精确率与召回率的调和平均

不好的情况:
检测的对——precision高
遗漏的多——recall低
好的情况:
检测的对——precision高
遗漏的少——recall高

mAP——m classes Average Precision

AP为一个类别的平均准确率,它是Precision与Recall为坐标轴形成的面积

m即多个类别的平均准确率

mAP越高,代表分类器性能越好

ROC曲线

指的是TPR与FPR之间的关系,以TPR为纵坐标,FPR为横坐标

TPR(真正率):TP / (TP+FN) —— 正确检测为正样本 在实际正样本的占比

FPR(假正率):FP / (FP+TN) —— 错误检测为正样本 在实际负样本的占比

绘制的曲线越接近左上角,代表分类器性能越好,**即真正率高而假正率低**

AUC——Area under Curve(ROC)

其为ROC曲线下的面积,面积越接近1,分类器性能越好
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值