ACL 2024中RAG论文整理和简析

随着ACL 2024大会的圆满落幕,本文将重点介绍会议中涉及的与Retrieval-Augmented Generation(RAG)相关的论文,探索这一领域最新的研究成果和发展趋势。

Call Me When Necessary: LLMs can Efficiently and Faithfully Reason over Structured Environments

https://aclanthology.org/2024.findings-acl.254.pdf

文章首先介绍了LLMs在处理这类任务时的挑战,即需要进行多跳推理,将自然语言话语与结构化环境中的实例相匹配。

在推理路径生成阶段,LLMs根据问题和给定的主题实体生成初始推理路径。在实例化阶段,系统尝试将推理路径与结构化环境匹配,并在遇到错误时收集错误信息。最后,在编辑阶段,LLMs利用这些错误信息来修正推理路径。

图片

图片

LLM as Prompter: Low-resource Inductive Reasoning on Arbitrary Knowledge Graphs

https://aclanthology.org/2024.findings-acl.224.pdf

KG归纳推理的一个关键挑战是处理文本和结构信息都匮乏的低资源场景。为了解决这一挑战,作者提出了利用大型语言模型(LLMs)生成图结构提示来增强预训练的图神经网络(GNNs),从而为KG归纳推理方法带来新的方法论见解,并在实践中具有很高的通用性。

图片

图片

A + B: A General Generator-Reader Framework for Optimizing LLMs to Unleash Synergy Potential

https://aclanthology.org/2024.findings-acl.219.pdf

提出了一个名为“A + B”的框架,旨在优化大型语言模型(LLMs)以释放协同潜力。这个框架通过将生成器(generator)和阅读器(reader)的角色分开,以提高LLMs在知识密集型任务中的性能和安全性。

文章阐述了“A + B”框架,其中A代表生成器,B代表阅读器。生成器A负责产生与输入查询相关的上下文,需要高度的事实准确性;而阅读器B则负责解释生成的上下文以提供适当的响应,需要认知推理和与人类偏好的一致性。

Uncovering Limitations of Large Language Models in Information Seeking from Tables

https://aclanthology.org/2024.findings-acl.82.pdf

文章介绍了一个名为TabIS(Table Information Seeking)的新基准测试,旨在评估大型语言模型(LLMs)在表格信息检索(TIS)方面的能力。TabIS包含三种典型的TIS场景,并采用单选题格式以确保评估的可靠性。通过对12个代表性LLMs的广泛实验。

图片

TEXT2DB : Integration-Aware Information Extraction with Large Language Model Agents

https://aclanthology.org/2024.findings-acl.12.pdf

文章将信息提取的输出与目标数据库(或知识库)进行整合。这项任务需要理解用户指令来确定提取内容,并根据给定的数据库/知识库架构动态适应提取方式。

图片

设计的框架包括与数据库交互的观察者组件、生成基于代码的计划的规划者组件,以及在执行前提供代码质量反馈的分析器组件。

Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs

https://aclanthology.org/2024.findings-acl.11.pdf

Graph-COT的每次迭代包括三个子步骤:LLM推理、LLM-图交互和图执行。文章还包含了数据集的创建过程,包括数据收集、问题模板设计、使用GPT-4生成多样化的问题表达,以及如何从图中自动生成答案。

图片

Citation-Enhanced Generation for LLM-based Chatbots

https://aclanthology.org/2024.acl-long.79.pdf

文章介绍了一种名为Citation-Enhanced Generation (CEG)的新型方法,旨在减少大型语言模型(LLM)聊天机器人在生成回答时可能出现的虚构内容。

图片

Retrieval-Augmented Retrieval: Large Language Models are Strong Zero-Shot Retriever

https://aclanthology.org/2024.findings-acl.943.pdf

文章提出了一种名为“Large language model as Retriever (LameR)”的方法,它利用大型语言模型(LLM)来改善零样本(zero-shot)情况下的大规模信息检索性能。LameR的核心思想是通过提示(prompting)LLM,将查询及其潜在答案结合起来,以增强查询并提高检索质量。

图片

ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models

https://aclanthology.org/2024.findings-acl.122.pdf

文章提出了ChatKBQA,这是一个新颖的生成-检索KBQA框架,它首先使用微调的大型语言模型(LLMs)生成逻辑形式,然后使用无监督检索方法检索和替换实体和关系,以更直接地改进生成和检索。

图片

Llama2Vec: Unsupervised Adaptation of Large Language Models for Dense Retrieval

https://aclanthology.org/2024.acl-long.191.pdf

Llama2Vec的核心思想是利用两个预文本任务:EBAE(基于嵌入的自编码)和EBAR(基于嵌入的自回归),来促使LLMs生成能够代表输入文本全局语义的嵌入向量。这种方法简单、轻量级,但非常有效。

图片

MINPROMPT: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering

https://aclanthology.org/2024.acl-long.16.pdf

文章介绍了一种名为MINPROMPT的新型数据增强框架,它针对少量样本问答(Few-shot Question Answering, QA)任务,旨在提高问答模型的效率和性能。MINPROMPT通过图算法和无监督问题生成技术,从原始文本中提取最有意义的问答训练样本。

图片

  • 句子图构建模块:利用句子图表示来结构化原始文本,通过图算法识别出覆盖最多信息的句子子集。

  • 数据选择模块:应用近似最小支配集算法来确定最小的句子集合,以覆盖所有共享实体。

  • 问题生成模块:将选定的事实句子转换成问答对,进一步转换成提示,为QA模型提供高质量、信息丰富的训练实例。
    来源 | 包包算法笔记

### RAG(Retrieval-Augmented Generation)的学术论文概述 Retrieval-Augmented Generation (RAG) 是一种结合了信息检索文本生成的技术,旨在提升大型语言模型(LLM)在生成响应时的准确性可靠性。RAG 通过引入外部知识库,使模型能够参考最新的、权威的信息,从而避免生成错误或过时的内容。以下是一些关于 RAG 的重要学术论文及其核心贡献的概述。 #### 1. **RAG 的基础论文:《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》** 该论文首次提出了 RAG 框架,并详细描述了其架构应用场景。RAG 框架由两个主要部分组成: - **参数化记忆(Parametric Memory)**:这部分基于预训练的语言模型,负责生成响应。 - **非参数化记忆(Non-parametric Memory)**:这部分包括查询编码器文档索引。查询编码器将问题转化为向量表示,文档索引则通过另一个编码器将文档向量化,并构建文档向量索引,以便快速检索相关信息[^4]。 该论文的核心贡献在于将信息检索与文本生成结合在一起,使得模型能够在生成响应之前参考外部知识库,从而提高生成内容的准确性相关性。 #### 2. **LightRAG:《LightRAG: Simple and Fast Retrieval-Augmented Generation》** LightRAG 是一种改进型的 RAG 方法,通过采用基于图的索引方法,提高了信息检索的效率理解能力。与传统的 RAG 相比,LightRAG 具有以下几个显著特点: - **基于图的索引**:LightRAG 利用全面的知识图谱,加快了相关文档的检索速度,使复杂查询的理解更加深入。 - **双层检索范式**:该方法既能提取具体的信息,又能提取抽象的信息,以满足用户多样化的需求。 - **增量更新能力**:LightRAG 支持无缝的增量更新,确保系统能够实时更新并响应新信息,从而在长期内保持其有效性。 LightRAG 在效率效果方面表现卓越,显著提高了信息检索生成的速度质量,同时降低了 LLM 推理的成本[^2]。 #### 3. **MultiHop-RAG:《Benchmarking Retrieval-Augmented Generation for Multi-Hop Queries》** MultiHop-RAG 是一项专注于多跳查询的 RAG 研究。随着大型语言模型(LLM)如 ChatGPT 的出现,自然语言处理领域取得了显著进展。然而,这些模型的输出有时可能包含错误或不准确的信息,这限制了它们在实际应用中的可靠性。为了解决这个问题,研究人员提出了 MultiHop-RAG 技术,该技术通过将外部知识库与 LLM 相结合,提高了生成的响应的质量准确性。 MultiHop-RAG 的主要贡献在于: - **多跳查询支持**:该方法能够处理需要多步推理的复杂查询,从而扩展了 RAG 的应用范围。 - **基准测试**:研究人员通过一系列基准测试验证了 MultiHop-RAG 的有效性,证明了其在多跳查询场景下的优越性能[^3]。 ### RAG 的发展趋势与挑战 尽管 RAG 已经在多个领域取得了显著成果,但仍面临一些挑战: - **计算成本**:RAG 的检索生成过程通常需要较高的计算资源,尤其是在处理大规模知识库时。 - **实时性**:尽管 LightRAG 提供了增量更新能力,但在某些实时性要求极高的场景下,RAG 的响应速度仍然有待提升。 - **多模态支持**:目前大多数 RAG 方法主要集中在文本领域,如何将其扩展到多模态数据(如图像、音频等)仍然是一个开放性问题。 ### 示例代码:RAG 基本流程 以下是一个简单的 RAG 流程示例代码,展示了如何使用 Python 实现基本的检索生成步骤。 ```python from transformers import RagTokenizer, RagRetriever, RagSequenceForGeneration # 加载预训练的 RAG 模型 tokenizer tokenizer = RagTokenizer.from_pretrained("facebook/rag-sequence-nq") retriever = RagRetriever.from_pretrained("facebook/rag-sequence-nq", index_name="exact", use_dummy_dataset=True) model = RagSequenceForGeneration.from_pretrained("facebook/rag-sequence-nq", retriever=retriever) # 输入问题 input_question = "What is the capital of France?" # 编码输入问题 input_ids = tokenizer(input_question, return_tensors="pt").input_ids # 生成响应 response = model.generate(input_ids) # 解码并输出结果 answer = tokenizer.batch_decode(response, skip_special_tokens=True)[0] print(f"Question: {input_question}") print(f"Answer: {answer}") ``` 这段代码展示了如何使用 Hugging Face 提供的 `transformers` 库实现一个简单的 RAG 流程。首先,加载预训练的 RAG 模型 tokenizer,然后对输入问题进行编码,最后生成并输出答案。 ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值