多阶段重排序架构与CEDR模型解析
在文本检索领域,如何更精准地对文档进行排序是一个关键问题。本文将介绍多阶段重排序架构相关内容,重点解析CEDR模型,并对其实验结果进行深入分析。
多阶段重排序架构基础
在文档排序中,MaxP与Birch的“1S”条件概念相似,都是将文档中得分最高的句子得分作为文档得分。Birch研究表明,考虑多个句子时最多只有微小改进,且超过前三句后无明显提升。这种方法与信息检索文献中过往利用段落检索技术进行文档排序的工作一致,“Max”和“Sum”聚合技术早在20多年前就已被探索,只是当时段落级证据的来源远不如现在的Transformer模型复杂。
用户研究也为BERT–MaxP和Birch的有效性提供了证据。研究发现,为用户提供文档的简洁摘要可以缩短做出相关性判断所需的时间,且不影响判断质量。在高召回率检索任务中,仅向用户展示文档摘录可减少评估时间和精力。在相关性反馈场景中,单独呈现句子摘录与展示完整文档相比,准确性相当但能减少用户精力。不过,要区分不同等级的相关性(如相关与高度相关),可能需要考虑更大篇幅的文档内容。
CEDR模型介绍
以往的一些模型,如monoBERT、Birch和BERT–MaxP,在计算查询 - 文档相关性得分时仅使用[CLS]标记的最终表示,丢弃了BERT为查询和候选文本生成的上下文嵌入。MacAvaney等人首次探索将BERT的上下文嵌入用于文本排序,提出了上下文嵌入文档排序(CEDR)方法。
CEDR通过逐块对文档进行推理,然后组合各块的相关性信号,解决了BERT输入长度的限制问题。从科学角度来看,他们研究了BERT的上下文嵌入在预BERT神经排序模型中是否优于静态嵌入,以及
超级会员免费看
订阅专栏 解锁全文

44

被折叠的 条评论
为什么被折叠?



