本文是LLM系列文章,针对《Enhancing Software-Related Information Extraction via Single-Choice Question Answering with Large Language Models》的翻译。
通过使用大型语言模型进行单选问答来增强软件相关信息提取
摘要
本文描述了我们参与的软件提及消除歧义共享任务(SOMD),重点是通过使用单选问答的生成性大型语言模型(LLM)来改进学术文本中的关系提取。该方法优先考虑使用LLM的上下文学习能力来提取软件相关实体及其描述性属性,如分布式信息。我们的方法使用检索增强生成(RAG)技术和命名实体识别(NER)和属性NER的LLM来识别提取的软件实体之间的关系,为分析学术文献中的软件引用提供了一种结构化的解决方案。本文详细描述了我们的方法,展示了在单选QA范式中使用LLM如何大大增强IE方法。我们参与SOMD共享任务突显了精确软件引用实践的重要性,并展示了我们的系统克服消除歧义和提取软件提及之间关系的挑战的能力。这为该领域的未来研究和开发奠定了基础。