模型评估指标:查准率 召回率 AP mAP

本文详细介绍了机器学习模型性能评估的多种指标,包括准确率、精确率、召回率、F1分数、AUC、mAP等,并探讨了如何解决类别不平衡问题及过拟合和欠拟合现象。

准确率:Accuracy=\frac{n_{correct}}{n_{total}} 

准确率=预测正确的样本数 / 所有样本数

当不同类别的样本比例非常不均衡时,占比大的类别往往成为影响准确率最主要的因素。

解决类别不均衡问题:

1。 小样本扩增或大样本采样  

2.   尝试其他评价指标精确率,召回率,ROC曲线

3.  惩罚因子。对分类器中不同类别分配不同的权值,小类别增加权值

精确率:指分类正确的正样本的个数占分类器判定为正样本的样本个数的比例。

precision:也叫查准率

召回率:指分类正确的正样本个数占真正的正样本个数的比例。

针对某一类样本与所有Ground Truth 的比例

精确率和召回率之前矛盾又统一。分类模型返回的TopN的结果就是模型判定的正样本,接着计算前N的位置上的精确率Precision@N和召回率Recall@N。为了提高精确率Precision,分类器将在更有把握的情况下才把样本判定为正样本。这样往往因为过于保守漏掉很多正样本导致Recall低。

P-R曲线(precision-recall):横轴召回率纵轴精确率,P-R曲线反映了模型在不同阈值下召回率和精确率的变化。要想全面衡量模型的性能,只有通过P-R曲线整体体现。

F1 score:精确率和召回率的调和平均值。 F1=\frac{2\times precision\times recall}{precision+recall}

mAP:

RMSE:评价回归模型的好坏。RMSE=\sqrt{\frac{\sum_{i=1}^{n}\left ( y_{i} -\hat{y}_{i}\right )^{2}}{n}}

ROC曲线:ROC曲线越接近左上角,代表模型越好。AUC指的是ROC曲线的面积。

AP :Average Precision

P-R曲线的面积就是AP。由于积分困难,引入插值法近似成若干矩形。

mAP=所有类别的AP之和 /  类别数


过拟合的解决:数据增强,引入噪声,正则化,dropout,提前终止学习,集成学习方法。

欠拟合的解决:添加新特征(组合特征),增加模型的复杂度(网络层数或神经元个数),减小正则化系数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值