Evaluation Metrics in Information Retrieval(信息检索中的评价指标)

1. Confusion Matrix(混淆矩阵)

RelevantNonrelevant
RetrievedTrue PositiveFalse Positive
Not RetrievedFalse NegativeTrue Negative

2. Precision and Recall

Precision = TP/(TP+FP),即被检索出的文档中真正相关的文档所占的比例。
Recall = TP/(TP+FN),即真正相关的文档中被成功召回(检索)的文档所占的比例。

下图解释较为形象:
在这里插入图片描述

3. F measure

在这里插入图片描述

We normally use a balanced F1 measure with β=1.
在这里插入图片描述

4. Rank-Based Measures

Slides: Stanford CS276 Ranked-Based Measures

  • Precision@K
  • Mean Average Precision (MAP)
  • Mean Reciprocal Rank (MRR)
  • Normalized Discounted Cumulative Gain (NDCG)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值