本文是LLM系列文章,针对《Towards Robust Evaluation: A Comprehensive Taxonomy of Datasets and Metrics for Open Domain Question Answering in the Era of Large Language Models》的翻译。
摘要
自然语言处理中的开放域问答 (ODQA) 涉及构建使用大规模知识语料库回答事实问题的系统。最近的进展源于多种因素的综合作用,例如大规模训练数据集、深度学习技术和大型语言模型的兴起。高质量的数据集用于在现实场景中训练模型,并能够根据潜在的未见过的数据对系统进行评估。标准化指标有助于不同 ODQA 系统之间的比较,使研究人员能够客观地跟踪该领域的进展。我们的研究通过审查跨文本和多模态的 52 个数据集和 20 种评估技术,对 ODQA 基准测试的当前状况进行了彻底的检查。我们为 ODQA 数据集引入了一种新颖的分类法,该分类法结合了问题类型的模式和难度。此外,我们还提出了 ODQA 评估指标的结构化组织以及对其固有权衡的批判性分析。我们的研究旨在通过提供一个对现代问答系统进行稳健评估的框架来增强研究人员的能力。最后,我们确定了当前的挑战并概述了未来研究和开发的有希望的途径。