本文是LLM系列文章,针对《A Survey on Retrieval-Augmented Text Generation for Large Language
Models》的翻译。
摘要
检索增强生成(RAG)将检索方法与深度学习技术相结合,通过动态集成最新的外部信息来解决大型语言模型(LLM)的静态局限性。这种方法主要侧重于文本领域,为LLM生成看似合理但不正确的响应提供了一种经济高效的解决方案,从而通过使用真实世界的数据来提高其输出的准确性和可靠性。随着RAG复杂性的增加,并引入了可能影响其性能的多个概念,本文将RAG范式分为四类:预检索、检索、后检索和生成,从检索的角度提供了详细的视角。它概述了RAG的演变,并通过分析重要研究讨论了该领域的进展。此外,本文还介绍了RAG的评估方法,解决了面临的挑战,并提出了未来的研究方向。通过提供一个有组织的框架和分类,该研究旨在巩固现有的RAG研究,阐明其技术基础,并强调其扩大LLM适应性和应用的潜力。