Recall(召回率)和 sensitivity(灵敏性)是同一个概念,其他无相同点

### 准确性的定义含义 准确性(Accuracy)是指分类器做出的正确预测占总预测的比例。对于二元分类问题,准确性可以通过下述公式计算: \[ \text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{FP} + \text{FN} + \text{TN}} \] 其中 TP 表示真正类(True Positive),TN 表示真负类(True Negative),FP 表示假正类(False Positive),而 FN 则表示假负类(False Negative)。然而,在类别分布极不平衡的数据集中,高准确性可能并不代表模型性能良好。 ### 召回率的定义含义 召回率Recall),也称为灵敏度或真正类率(True Positive Rate, TPR),衡量的是实际为正样本中被正确识别出来的比例: \[ \text{Recall (Sensitivity)} = \frac{\text{TP}}{\text{TP}+\text{FN}} \] 这个比率越高说明漏检越少;但是高的召回率可能会带来更多的误报[^1]。 ### 精确度的定义含义 精确度(Precision),有时也被叫做查准率,指的是所有预测为正向的结果中有多少是真的正向实例: \[ \text{Precision} = \frac{\text{TP}}{\text{TP}+\text{FP}} \] 较高的精确度意味着较少的错误警报,即当系统说某事发生时它确实发生的概率较大[^2]。 ### F1分数的定义含义 F1分数是精确度召回率之间的一种折衷措施,它是两者调平均数而非简单的算术均值。因此,即使其中一个分量很低也会显著影响最终得分。具体表达如下所示: \[ F_1 = 2 * (\frac{\text{precision}*\text{recall}}{\text{precision}+\text{recall}}) \] 这种特性使得F1特别适合用来评价那些对两类误差都有严格要求的任务,尤其是在处理不平衡数据集的情况下更为有用[^3]。 ### 公平性指标的定义含义 公平性是一个更广泛的概念,涉及到算法决策过程及其结果是否公正对待不同群体。在机器学习领域内,存在多种方式去量化这一属性,比如统计奇偶差、平等机会差距等。这些方法试图捕捉到模型是否存在针对某些特征(如性别、种族)的不同待遇现象。值得注意的是,“完美”的公平往往是难以实现的目标,因为不同的公平标准之间可能存在冲突,并且如何界定什么是“公平”本身就是一个复杂的社会议题[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值