机器学习评估指标大全
| 分类问题(单项) | 分类问题(综合) | 回归问题 |
|---|---|---|
| 准确率 - Accuracy | F1分数 | MAE |
| 精确率 - Precision | ROC曲线 | MSE |
| 召回率 - Recall | AUC曲线 |
分类问题评估指标:
- 准确率 — Accuracy
- 精确率(差准率)- Precision
- 召回率(查全率)- Recall
- F1分数
- ROC曲线
- AUC曲线
回归问题评估指标:
- 平均绝对误差(MAE)
- MSE 均方误差
- R平方(R²)
分类评估指标详解
准确率 — Accuracy
预测正确的结果占总样本的百分比,公式如下:
准确率 =(TP+TN)/(TP+TN+FP+FN)
虽然准确率可以判断总的正确率,但是在样本不平衡 的情况下,并不能作为很好的指标来衡量结果。举个简单的例子,比如在一个总样本中,正样本占 90%,负样本占 10%,样本是严重不平衡的。对于这种情况,我们只需要将全部样本预测为正样本即可得到 90% 的高准确率,但实际上我们并没有很用心的分类,只是随便无脑一分而已。这就说明了:由于样本不平衡的问题,导致了得到的高准确率结果含有很大的水分。即如果样本不平衡,准确率就会失效。
精确率(差准率)- Precision
所有被预测为正的样本中实际为正的样本的概率,公式如下:
精准率 =TP/(TP+FP)
精准率代表对正样本结果中的预测准确程度,而准确率则代表整体的预测准确程度,既包括正样本,也包括负样本。
召回率(查全率)- Recall
实际为正的样本中被预测为正样本的概率,其公式如下:
召回率=TP/(TP+FN)

最低0.47元/天 解锁文章
1671

被折叠的 条评论
为什么被折叠?



