在机器学习中,性能评估指标用于衡量模型的预测效果。以下是常见指标的解释:
1. TP (True Positive, 真正例)
-
定义: 模型正确预测为正类的样本数。
-
解释: 实际为正类,模型也预测为正类。
2. TN (True Negative, 真负例)
-
定义: 模型正确预测为负类的样本数。
-
解释: 实际为负类,模型也预测为负类。
3. FP (False Positive, 假正例)
-
定义: 模型错误预测为正类的样本数。
-
解释: 实际为负类,但模型预测为正类。
4. FN (False Negative, 假负例)
-
定义: 模型错误预测为负类的样本数。
-
解释: 实际为正类,但模型预测为负类。
5. 精确率 (Precision)
-
定义: 模型预测为正类的样本中,实际为正类的比例。
-
公式:
-
解释: 衡量模型预测正类的准确性。
6. 召回率 (Recall)
-
定义: 实际为正类的样本中,模型正确预测为正类的比例。
-
公式:
-
解释: 衡量模型找出正类的能力。
7. 准确率 (Accuracy)
-
定义: 模型正确预测的样本占总样本的比例。
-
公式:
-
解释: 衡量模型整体预测的准确性。
8. F1-score
-
定义: 精确率和召回率的调和平均数。
-
公式:
-
解释: 综合衡量精确率和召回率,适用于不平衡数据集。
9. mAP (均值平均精度, Mean Average Precision)
-
定义: 多类别分类或目标检测任务中,各类别平均精度(AP)的均值。
-
解释: 常用于目标检测,衡量模型在不同类别上的平均表现。
总结
-
TP、TN、FP、FN 是基础指标,用于构建其他评估指标。
-
精确率 关注预测正类的准确性。
-
召回率 关注找出正类的能力。
-
准确率 衡量整体预测准确性。
-
F1-score 平衡精确率和召回率。
-
mAP 用于多类别任务,衡量平均精度。
这些指标共同帮助评估和优化机器学习模型。