分类评判标准:准确率,召回率,F值

注:由于翻译时有的Precision会翻译成准确率有的会翻译成精确率,我就不纠结这个到底是什么了,总之评价的标注有:Precision, Recall, F-score。

以前一直觉得Precision是可以用 对的/总的,今天和师姐一起稍稍研究了一下发现并不是这样的。师姐说我说的这个 对的/总的 叫做Accuracy

     +1    -1
+1   TP    FP
-1   FN    TN

TP:模型把正类预测为正类
FP:模型把正类预测为负类
FN:模型把负类预测为正类
TN:模型把负类预测为负类
Precision
Precision的意义是:预测为正的样本中有多少是真正的正样本
计算公式:Precision = TP/(TP+FP)
Recall
Recall的意义是:样本中的正例有多少被预测正确了
计算公式: Recall = TP/(TP+FN)
F-score
F-Measure是Precision和Recall加权调和平均。
这里写图片描述
当α=1时就是我们最常见的F1值
这里写图片描述

Reference
知乎-如何解释召回率与准确率?

### 地震波P波和S波分类模型的性能指标 在地震学领域,构建用于区分P波(压缩波)和S波(剪切波)的机器学习模型时,准确率召回率以及F1分数是衡量其表现的重要标准。 #### 准确率(Precision) 对于P波和S波分类任务而言,准确率反映了被判定为特定类别(比如P波或S波)中的样本有多少比例确实是该类别的成员。如果一个模型声称检测到了多个P波事件,那么这些预测中有多少真正属于P波即由准确率来表示[^1]。 #### 召回率(Recall) 另一方面,召回率则侧重于实际存在的某一类型的波动中有多大份额能够成功识别出来。例如,在所有真实的P波实例里,模型可以正确标记出来的百分比就构成了针对这一类目的召回率;同样适用于S波的情况。 #### F1分数(F1 Score) 考虑到单独依赖准确率或者召回率可能无法全面反映模型的好坏——有时为了提高一方可能会牺牲另一方的表现——因此引入了综合两者优点而来的评价尺度:F1得分。它通过调和平均的方式平衡了上述两个方面的影响因素,从而提供了一个更加均衡可靠的评判依据。 ```python from sklearn.metrics import precision_score, recall_score, f1_score def evaluate_model(y_true, y_pred): """ 计算并打印给定真实标签y_true与预测结果y_pred之间的准确率召回率及F1分数 参数: y_true : array-like of shape (n_samples,) 实际的目标 y_pred : array-like of shape (n_samples,) 预测得到的目标 返回: None """ p = precision_score(y_true, y_pred, pos_label='p_wave') r = recall_score(y_true, y_pred, pos_label='p_wave') f1 = f1_score(y_true, y_pred, pos_label='p_wave') print(f"P-Wave Precision: {p:.4f}") print(f"P-Wave Recall: {r:.4f}") print(f"P-Wave F1-Score: {f1:.4f}") # 假设我们有如下形式的真实标签列表和对应的预测输出 true_labels = ['s_wave', 'p_wave', ... ] predicted_results = ['s_wave', 'p_wave', ... ] evaluate_model(true_labels, predicted_results) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值