[Statistics] 科研中常见的统计学指标

CohensKappa系数是用于评估两个评价者在二分类任务中的一致性程度的统计学指标。当需要人类评估作为实验结果的金标准时,该系数越高表示评价者间的一致性越好。例如,在博物馆展品展出决策中,两个管理员的分类结果可以通过CohensKappa系数来度量其一致性。系数值0.3表示了从无到轻度的一致性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

统计学指标

Cohen’s Kappa coefficient

用途:Cohen’s Kappa coefficient用于度量两个rators对于同一事物二分类的一致性程度。

科研中,有些二分类任务的结果需要human evaluation作为groundtruth。这时候,两个author会对实验结果进行采样并判断是否分类正确,Cohen’s Kappa coefficient越高,代表他们对于结果一致认可的程度越高。

Cohen’s kappa coefficient计算公式

k=(p0−pe)/(1−pe)k = (p_0 - p_e) / (1 - p_e)k=(p0pe)/(1pe)

其中:

  • p0p_0p0 relative observed agreement among rators。
    p0p_0p0 是所有打分中,两个rator打分一致的频次

  • pep_epe hypothetical probability of chance agreement
    pep_epe 是根据观察,两个rator打分一致的概率

举个例子来说明:

博物馆有100个待展览的展品,两个管理员独立对它们进行分类,yes代表展出,no代表不展出。

他们的打分结果如下

rator1\rator2YESNo
Yes3020
No1535

计算过程如下:

  • p0=(30+35)/100=0.65p_0 = (30 + 35) / 100 = 0.65p0=(30+35)/100=0.65 (意见一致的频率)
  • pe=0.5∗0.45+0.5∗0.55=0.5p_e = 0.5 * 0.45 + 0.5 * 0.55 = 0.5pe=0.50.45+0.50.55=0.5 (根据观察,同时打yes或者同时打no的概率)

最终的Cohen’s Kappa coefficient得分为
(0.65−0.5)/(1−0.5)=0.3(0.65 - 0.5) / (1 - 0.5) = 0.3(0.650.5)/(10.5)=0.3

Cohen’s Kappa coefficient的参考分数

scoreinterpretation
≤0\le 00no agreement
(0,0.20](0,0.20](0,0.20]none to slight
(0.21,0.40](0.21,0.40](0.21,0.40]fair
(0.41,0.60](0.41,0.60](0.41,0.60]moderate
(0.61,0.80](0.61,0.80](0.61,0.80]substantial
(0.81,1.00](0.81,1.00](0.81,1.00]perfect agreement
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值