
RAG for LLM
文章平均质量分 66
检索增强提高LLM能力
UnknownBody
AI博士,最近一直follow大模型相关论文,每日会更新学术界论文的进展。
展开
-
TP-RAG: Benchmarking Retrieval-Augmented Large Language Model Agents for Spatiotemporal-Aware
大语言模型(LLMs)在实现旅行规划自动化方面展现出了潜力,然而,它们在处理细致的时空合理性问题上往往表现欠佳。尽管现有的基准测试聚焦于基本的规划有效性,但却忽略了诸如路线效率、兴趣点(POI)吸引力以及实时适应性等关键方面。本文引入了TP - RAG,这是首个专为检索增强且具有时空感知能力的旅行规划而设计的基准测试。我们的数据集包含2348个真实世界的旅行查询、85575个经过精细标注的兴趣点以及18784条源自在线旅游文档的高质量旅行轨迹参考,支持动态且具有上下文感知的规划。原创 2025-04-30 10:55:46 · 320 阅读 · 0 评论 -
PR-Attack: Coordinated Prompt-RAG Attacks on Retrieval-Augmented Generation in Large Language Models
大语言模型(LLMs)在广泛的应用领域展现出卓越的性能,如医疗问答、数学科学和代码生成等。然而,它们也存在固有的局限性,例如知识过时和易产生幻觉。检索增强生成(RAG)已成为解决这些问题的一种有前景的范式,但它也引入了新的漏洞。最近的研究集中在基于RAG的大语言模型的安全性上,然而现有的攻击方法面临三个关键挑战:(1)当只有有限数量的中毒文本可以注入到知识库中时,它们的有效性会急剧下降;(2)它们缺乏足够的隐蔽性,因为攻击往往能被异常检测系统检测到,这损害了其有效性;原创 2025-04-22 09:30:00 · 99 阅读 · 0 评论 -
Investigating Retrieval-Augmented Generation in Quranic Studies: A Study of 13 Open-Source LLM
针对通用大语言模型在宗教领域(如古兰经研究)回答问题时存在的幻觉问题和准确性不足,本研究提出结合检索增强生成(RAG)框架,通过集成领域特定知识(古兰经章节描述数据集)提升回答的上下文相关性忠实性和准确性。原创 2025-04-04 08:30:00 · 29 阅读 · 0 评论 -
Towards Omni-RAG: Comprehensive Retrieval-Augmented Generation for Large Language Models in Medical
大型语言模型有望解决医疗挑战,如医疗诊断推理、研究知识获取、临床决策和消费者健康查询支持。然而,由于医学知识有限,他们经常产生幻觉。因此,整合外部知识至关重要,这需要多源知识的获取。我们通过将其视为源规划问题来应对这一挑战,即根据不同源的属性制定适合上下文的查询。现有的方法要么忽视了源计划,要么由于模型对源的期望与其实际内容之间的不一致而无法有效地实现它。为了弥合这一差距,我们提出了MedOmniKB,这是一个由多类型和多结构医学知识源组成的知识库。原创 2025-03-02 10:00:00 · 57 阅读 · 0 评论 -
DeepRAG: Thinking to Retrieval Step by Step for Large Language Models
大型语言模型(LLMs)在推理方面表现出了巨大的潜力,但由于参数知识的及时性、准确性和覆盖范围,它们仍然存在严重的事实幻觉。同时,由于无效的任务分解和冗余检索,将推理与检索增强生成(RAG)集成仍然具有挑战性,这可能会引入噪声并降低响应质量。在本文中,我们提出了DeepRAG,这是一个将检索增强推理建模为马尔可夫决策过程(MDP)的框架,实现了战略性和自适应检索。通过迭代分解查询,DeepRAG在每一步都动态地确定是检索外部知识还是依赖参数推理。原创 2025-02-22 10:00:00 · 90 阅读 · 0 评论 -
VideoRAG: Retrieval-Augmented Generation over Video Corpus
检索增强生成(RAG)是一种强大的策略,通过检索与查询相关的外部知识并将其整合到生成过程中,来解决在基础模型中生成事实不正确输出的问题。然而,现有的RAG方法主要侧重于文本信息,最近的一些进展开始考虑图像,它们在很大程度上忽视了视频,视频是多模态知识的丰富来源,能够比任何其他模态更有效地表示事件、过程和上下文细节。虽然最近的一些研究探索了视频在响应生成过程中的集成,但它们要么预先定义查询相关的视频,而不根据查询检索它们,要么将视频转换为文本描述,而不利用其多模态丰富性。原创 2025-01-22 10:15:00 · 274 阅读 · 0 评论 -
RetroLLM: Empowering Large Language Models to Retrieve Fine-grained Evidence within Generation
大型语言模型(LLMs)表现出非凡的生成能力,但经常出现幻觉。检索增强生成(RAG)通过整合外部知识提供了一种有效的解决方案,但现有方法仍面临几个局限性:单独检索器的额外部署成本、检索到的文本块中的冗余输入token,以及缺乏检索和生成的联合优化。为了解决这些问题,我们提出了RetroLLM,这是一个统一的框架,将检索和生成集成到一个单一的、有凝聚力的过程中,使LLM能够通过约束解码从语料库中直接生成细粒度的证据。原创 2025-01-20 09:45:00 · 162 阅读 · 0 评论 -
Federated Learning and RAG Integration: A Scalable Approach for Medical Large Language Models
本研究通过在联邦学习(FL)框架内集成检索增强生成(RAG)系统,分析了特定领域大型语言模型(LLM)在医学领域的性能。利用FL的固有优势,如保护数据隐私和实现分布式计算,本研究探索了RAG系统与在不同客户端配置下训练的模型的集成,以优化性能。实验结果表明,与RAG系统集成的基于FL的模型在所有评估指标上始终优于非集成模型。本研究强调了结合FL和RAG系统在医学领域开发特定领域LLM的潜力,为增强文本生成能力提供了一种可扩展和隐私保护的解决方案。原创 2025-01-13 09:44:49 · 149 阅读 · 0 评论 -
AUTO-RAG: AUTONOMOUS RETRIEVAL-AUGMENTED GENERATION FOR LARGE LANGUAGE MODELS
迭代检索是指模型在生成过程中不断查询检索器,以增强检索到的知识的相关性,从而提高检索增强生成(RAG)的性能的过程。现有的工作通常采用很少的样本提示或手动构建的规则来实现迭代检索。这引入了额外的推理开销,并忽略了大型语言模型(LLM)的卓越推理能力。本文介绍了Auto RAG,这是一种以LLM强大的决策能力为中心的自主迭代检索模型。Auto RAG与检索器进行多轮对话,系统地规划检索并细化查询,以获取有价值的知识。这个过程会一直持续到收集到足够的外部信息,然后将结果呈现给用户。原创 2024-12-30 10:15:00 · 259 阅读 · 0 评论 -
Explainable Biomedical Hypothesis Generation via Retrieval Augmented Generation enabled LLM
当今可用的大量生物医学信息对寻求有效消化、处理和理解这些发现的研究人员提出了重大挑战。大型语言模型 (LLM) 已成为驾驭这一复杂且具有挑战性的数据环境的强大工具。然而,LLM可能会导致幻觉反应,这使得检索增强生成(RAG)对于获得准确信息至关重要。在此协议中,我们提出了 RUGGED(图引导可解释疾病区分下的检索),这是一个全面的工作流程,旨在支持研究人员进行知识整合和假设生成,确定经过验证的前进路径。原创 2024-11-26 09:15:00 · 128 阅读 · 0 评论 -
Seven Failure Points When Engineering a Retrieval Augmented Generation System
软件工程师越来越多地使用一种称为检索增强生成 (RAG) 的策略向应用程序添加语义搜索功能。RAG 系统涉及查找在语义上与查询匹配的文档,然后将文档传递给大型语言模型 (LLM),例如 ChatGPT,以使用 LLM 提取正确答案。RAG 系统旨在:a) 减少 LLM 的幻觉反应问题,b) 将来源/参考文献链接到生成的响应,以及 c) 消除使用元数据注释文档的需要。然而,RAG 系统存在信息检索系统固有的限制和对 LLM 的依赖。原创 2024-11-14 09:40:09 · 288 阅读 · 0 评论 -
Evaluating Self-Generated Documents for Enhancing Retrieval-Augmented Generation with Large Language
在检索增强生成系统中,自生成文档 (SGD) 与检索内容的集成已成为提高大型语言模型性能的一种有前途的策略。然而,以前的研究主要集中在优化 SGD 的使用上,而 SGD 的固有特性仍未得到充分探索。因此,本文对不同类型的 SGD 进行了全面分析,并对各种知识密集型任务进行了实验。我们开发了基于系统功能语言学 (SFL) 的 SGD 分类法,以比较不同 SGD 类别的影响。我们的研究结果为哪些类型的 SGD 最有效地有助于提高 LLM 的性能提供了关键见解。原创 2024-11-12 09:30:00 · 154 阅读 · 0 评论 -
Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach
检索增强生成(RAG)已成为大型语言模型(LLM)高效处理过长上下文的强大工具。然而,最近的LLM,如Gemini1.5和GPT-4,显示出直接理解长上下文的卓越能力。我们对RAG和长上下文(LC)LLM进行了全面比较,旨在利用两者的优势。我们使用三种最新的LLM在各种公共数据集中对RAG和LC进行基准测试。结果表明,当资源充足时,LC在平均性能方面始终优于RAG。然而,RAG显著降低的成本仍然是一个明显的优势。原创 2024-10-12 10:00:00 · 207 阅读 · 0 评论 -
A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models
作为 AI 中最先进的技术之一,检索增强生成 (RAG) 可以提供可靠和最新的外部知识,为众多任务提供巨大的便利。特别是在 AI 生成内容 (AIGC) 时代,在提供额外知识方面的强大检索能力使 RAG 能够协助现有的生成式 AI 生成高质量的输出。最近,大型语言模型 (LLM) 在语言理解和生成方面表现出革命性的能力,但仍然面临固有的限制,例如幻觉和过时的内部知识。原创 2024-09-15 11:13:30 · 401 阅读 · 0 评论 -
A Survey on Retrieval-Augmented Text Generation for Large Language Models
检索增强生成(RAG)将检索方法与深度学习技术相结合,通过动态集成最新的外部信息来解决大型语言模型(LLM)的静态局限性。这种方法主要侧重于文本领域,为LLM生成看似合理但不正确的响应提供了一种经济高效的解决方案,从而通过使用真实世界的数据来提高其输出的准确性和可靠性。随着RAG复杂性的增加,并引入了可能影响其性能的多个概念,本文将RAG范式分为四类:预检索、检索、后检索和生成,从检索的角度提供了详细的视角。它概述了RAG的演变,并通过分析重要研究讨论了该领域的进展。原创 2024-08-17 09:56:39 · 257 阅读 · 0 评论 -
Optimization Methods for Personalizing Large Language Models through Retrieval Augmentation
本文研究了用于个性化大型语言模型(LLM)的检索增强方法,这些方法可能对各种应用和领域产生重大影响。我们首次尝试优化检索模型,将有限数量的个人文档传递给大型语言模型,以实现个性化生成。我们开发了两种优化算法,从下游的个性化生成任务中征求反馈以进行检索优化——一种基于强化学习,其奖励函数是使用任何任意的个性化生成度量来定义的,另一种基于从下游LLM到检索模型的知识蒸馏。本文还介绍了一种生成前和生成后的检索器选择模型,该模型决定了为每个LLM输入选择什么检索器。原创 2024-08-16 14:04:59 · 203 阅读 · 0 评论 -
RAG Foundry: A Framework for Enhancing LLMs for Retrieval Augmented Generation
实现检索增强生成(RAG)系统本身就很复杂,需要对数据、用例和复杂的设计决策有深入的理解。此外,评估这些系统带来了重大挑战,需要通过多方面的方法评估检索准确性和生成质量。我们介绍RAG FOUNDRY,这是一个开源框架,用于增强RAG用例的大型语言模型。RAG FOUNDRY将数据创建、训练、推理和评估集成到一个工作流程中,便于创建数据增强数据集,用于在RAG环境中训练和评估大型语言模型。这种集成实现了各种RAG技术的快速原型制作和实验,使用户能够使用内部或专业知识源轻松生成数据集和训练RAG模型。原创 2024-08-15 15:17:33 · 159 阅读 · 0 评论 -
JORA: JAX Tensor-Parallel LoRA Library for Retrieval Augmented Fine-Tuning
用于基于检索的任务的大型语言模型(LLM)的扩展,特别是在检索增强生成(RAG)中,面临着巨大的内存限制,尤其是在微调大量提示序列时。当前的开源库支持跨多个GPU的全模型推理和微调,但无法适应检索上下文所需的高效参数分布。为了弥补这一差距,我们引入了一种新的框架,利用分布式训练对Llama-2模型进行PEFT兼容的微调。我们的框架独特地利用了JAX的实时(JIT)编译和张量分片来实现高效的资源管理,从而加速了微调,降低了内存需求。原创 2024-07-26 11:12:07 · 92 阅读 · 0 评论 -
Summary of a Haystack: A Challenge to Long-Context LLMs and RAG Systems
摘要1 引言2 相关工作3 Haystack框架中的摘要4 评估协议5 结果6 讨论7 结论LLM和RAG系统现在能够处理数百万个或更多的输入token。然而,评估此类系统在长上下文任务上的输出质量仍然具有挑战性,因为像“大海捞针”这样的任务缺乏复杂性。在这项工作中,我们认为总结可以在这种评估中发挥核心作用。我们设计了一个综合Haystacks文档的程序,确保特定的见解在文档中重复。原创 2024-07-09 11:14:52 · 167 阅读 · 0 评论 -
LongRAG: Enhancing Retrieval-Augmented Generation with Long-context LLMs
在传统的RAG框架中,基本检索单元通常很短。像DPR这样的常见检索器通常处理100个单词的维基百科段落。这样的设计迫使检索器在大型语料库上搜索以找到“针”单元。相比之下,读者只需要从检索到的简短单元中提取答案。这种不平衡的“重”检索器和“轻”读取器设计可能导致次优性能。为了缓解这种不平衡,我们提出了一个新的框架LongRAG,由“长检索器”和“长阅读器”组成。LongRAG将整个维基百科处理成4Ktoken单元,比以前长了30倍。通过增加单元大小,我们将总单元从2200万个显著减少到600万个。原创 2024-07-02 17:21:45 · 350 阅读 · 0 评论 -
CoRAL: Collaborative Retrieval-Augmented Large Language Models Improve Long-tail Recommendation
由于数据稀疏和数据不平衡的问题,长尾推荐对传统的推荐系统来说是一项具有挑战性的任务。最近开发的大型语言模型(LLM)显示了它们在复杂推理方面的能力,这有助于根据很少的先前交互推断用户的偏好。然而,由于大多数基于LLM的系统依赖于项目的语义作为推理的唯一证据,因此忽略了用户-项目交互的协作信息,这可能导致LLM的推理与数据集的特定任务协作信息不一致。为了进一步使LLM的推理与特定任务的用户-项目交互知识相一致,我们引入了协作检索增强LLM,即CoRAL,它直接将协作证据纳入提示中。原创 2024-06-27 14:39:47 · 296 阅读 · 0 评论 -
Self-Retrieval: Building an Information Retrieval System with One Large Language Model
大型语言模型(LLM)的兴起已经改变了信息检索(IR)系统在人类获取信息方面的作用。由于孤立的体系结构和有限的交互,现有的IR系统无法完全适应从直接向人类提供信息到间接为大型语言模型服务的转变。在本文中,我们提出了自检索,这是一种端到端的LLM驱动的信息检索架构,可以将IR系统所需的能力完全内化为单个LLM,并在IR过程中深度利用LLM的能力。具体来说,自检索通过自然语言索引架构将语料库内化为LLM。然后,整个检索过程被重新定义为文档生成和自我评估的过程,可以使用单个大型语言模型端到端地执行。原创 2024-06-21 14:09:46 · 148 阅读 · 0 评论 -
Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity
检索增强大语言模型(LLM)将外部知识库中的非参数知识整合到LLM中,已成为提高多项任务(如问答)响应准确性的一种很有前途的方法。然而,即使有各种方法处理不同复杂性的查询,它们要么处理具有不必要的计算开销的简单查询,要么不能充分处理复杂的多步骤查询;然而,并不是所有的用户请求都只属于简单或复杂类别中的一类。在这项工作中,我们提出了一种新的自适应QA框架,该框架可以根据查询复杂性从最简单到最复杂的LLM动态选择最适合(检索增强)LLM的策略。原创 2024-06-07 22:26:36 · 344 阅读 · 0 评论 -
DRAGIN: Dynamic Retrieval Augmented Generation based on the Real-time Information Needs of LLMs
动态检索增强生成(RAG)范式主动决定在大型语言模型(LLM)的文本生成过程中何时检索以及检索什么。该范式有两个关键要素:确定激活检索模块的最佳时刻(决定何时检索)和在触发检索后制定适当的查询(决定检索内容)。然而,当前的动态RAG方法在这两个方面都不足。首先,决定何时检索的策略通常依赖于静态规则。此外,决定检索内容的策略通常仅限于LLM的最新句子或最后几个token,而LLM的实时信息需求可能跨越整个上下文。为了克服这些限制,我们引入了一个新的框架DRAGIN,即基于LLM实时信息需求的动态检索增强生成。原创 2024-05-30 11:03:50 · 319 阅读 · 0 评论 -
Re-Search for The Truth Multi-round Retrieval-augmented Large Language Models are Strong Fake News
假新闻的泛滥对政治、经济和整个社会产生了深远的影响。虽然假新闻检测方法被用来缓解这一问题,但它们主要取决于两个基本要素:证据的质量和相关性,以及判决预测机制的有效性。传统方法通常从维基百科等静态存储库中获取信息,但受到过时或不完整数据的限制,尤其是对于新兴或罕见的声明。以其卓越的推理和生成能力而闻名的大型语言模型(LLM)为假新闻检测引入了一个新的前沿。然而,与传统方法一样,基于LLM的解决方案也要克服陈旧和长尾知识的局限性。此外,检索增强LLM经常遇到低质量证据检索和上下文长度限制等问题。原创 2024-05-29 11:27:19 · 337 阅读 · 0 评论 -
Causal Graph Discovery with Retrieval-Augmented Generation based Large Language Models
因果图恢复在因果推理领域是必不可少的。传统方法通常是基于知识或统计估计的,这受到数据收集偏差和个人对影响兴趣变量之间关系的因素的了解的限制。大型语言模型(LLM)的发展为解决这些问题提供了机会。我们提出了一种新的方法,该方法利用大量科学文献中包含的广泛知识来推导一般因果图恢复任务中的因果关系。这种方法利用基于检索增强生成(RAG)的LLM来系统地分析和提取综合研究论文集中的相关信息。我们的方法首先从聚合的文献中检索相关的文本块。然后,LLM的任务是识别和token因素之间的潜在关联。原创 2024-05-06 10:32:40 · 364 阅读 · 0 评论 -
Advancing Retrieval-Augmented Large Language Models via Query Generation Blending
检索增强的大型语言模型(LLM)在提高知识密集型场景的性能方面提供了巨大的好处。然而,这些方法经常面临复杂输入的挑战,并且由于噪声知识检索而遇到困难,特别是阻碍了模型的有效性。为了解决这个问题,我们引入了BlendFilter,这是一种通过将查询生成混合与知识过滤相结合来提升检索增强LLM的新方法。BlendFilter通过其查询生成方法提出了混合过程,该方法将外部和内部知识增加与原始查询相结合,确保全面的信息收集。此外,我们独特的知识过滤模块利用了LLM的内在功能,有效地消除了无关数据。原创 2024-04-20 21:45:44 · 183 阅读 · 0 评论 -
Adaptive Retrieval Augmentation for Hallucination Mitigation in Large Language Models
幻觉对大型语言模型(LLM)的实际实现提出了重大挑战。参数知识在生成事实内容时的使用受到LLM有限知识的限制,可能导致内部幻觉。虽然整合外部信息有助于填补知识空白,但也会带来不相关信息的风险,从而增加产生外部幻觉的可能性。LLM中的参数知识与外部信息的仔细而平衡的整合对于缓解幻觉至关重要。在这项研究中,我们提出了Rowen,这是一种新的方法,通过针对幻觉输出量身定制的选择性检索增强过程来增强LLM。该过程由多语言语义感知检测模块控制,该模块评估针对相同查询的不同语言的扰动响应的一致性。原创 2024-04-19 11:02:34 · 217 阅读 · 0 评论 -
Generalisable Driving Explanations with Retrieval-Augmented In-Context Learning in Multi-Modal LLM
由“黑盒”模型驱动的机器人需要提供我们可以信任的人类可以理解的解释。因此,可解释性在值得信赖的自主决策中发挥着关键作用,以提高最终用户的透明度和接受度,尤其是在复杂的自动驾驶中。多模态大语言模型(MLLMs)的最新进展表明,通过产生控制预测和自然语言解释,在增强驱动因素的可解释性方面具有很好的潜力。然而,由于昂贵的注释成本和不同数据集之间的显著领域差距,导致数据严重短缺,这使得开发一个强大且可推广的系统成为一项极具挑战性的任务。原创 2024-04-12 16:53:46 · 101 阅读 · 0 评论 -
Metacognitive Retrieval-Augmented Large Language Models
检索增强生成由于其在生成事实内容方面的功效而成为自然语言处理的核心。虽然传统方法采用单时间检索,但最近的方法已转向多跳推理任务的多时间检索。然而,这些策略受到预定义推理步骤的约束,可能导致响应生成的不准确。本文介绍了MetaRAG,这是一种将检索增强生成过程与元认知相结合的方法。从认知心理学的角度来看,元认知允许一个实体自我反思和批判性地评估其认知过程。通过整合这一点,MetaRAG使模型能够监测、评估和规划其响应策略,增强其内省推理能力。原创 2024-04-10 10:23:51 · 216 阅读 · 0 评论 -
Prompt Perturbation in Retrieval-Augmented Generation based Large Language Models
随着大型语言模型在广泛领域的使用迅速增长,其稳健性变得越来越重要。检索增强生成(RAG)被认为是提高LLM文本生成可信度的一种手段。然而,基于RAG的LLM的输出如何受到略有不同的输入的影响还没有得到很好的研究。在这项工作中,我们发现,即使在提示中插入一个短前缀,也会导致生成远离事实正确答案的输出。我们通过引入一种名为梯度引导提示扰动(GGPP)的新优化技术,系统地评估了这些前缀对RAG的影响。GGPP在将基于RAG的LLM的输出引导到有针对性的错误答案方面实现了高成功率。原创 2024-04-08 18:00:33 · 780 阅读 · 1 评论 -
Enhancing Textbook Question Answering Task with LLM and Retrieval Augmented Generation
由于上下文和多模态数据的复杂性,教科书问答在人工智能中是一项具有挑战性的任务。尽管之前的研究已经显著改进了这项任务,但仍存在一些局限性,包括模型推理能力弱,无法在长时间的上下文中捕捉上下文信息。大型语言模型(LLM)的引入彻底改变了人工智能领域,然而,直接应用LLM往往会导致不准确的答案。本文提出了一种方法来处理TQA中的“领域外”场景,其中通过结合检索增强生成(RAG)技术将概念传播到不同的课程中,并利用迁移学习来处理长上下文和增强推理能力。原创 2024-04-02 17:14:27 · 112 阅读 · 0 评论 -
Enhancing Large Language Model Performance To Answer Questions and Extract Information More Accurate
大型语言模型(LLM)生成对问题的回答;然而,它们的有效性往往受到答案质量次优和偶尔无法提供准确答案的阻碍。为了应对这些挑战,我们采用了一个微调过程,包括反馈和示例来完善模型。目标是通过连续的反馈循环来增强人工智能模型,利用余弦相似性、LLM评估和Rouge-L分数等指标来评估模型。原创 2024-04-02 10:55:54 · 84 阅读 · 0 评论 -
RAG-Driven Enhancement of Multimodal Electronic Health Records Analysis via Large Language Models
多模态电子健康记录(EHR)数据的集成显著提高了临床预测能力。利用临床笔记和多变量时间序列EHR,现有模型往往缺乏与临床任务相关的医学背景,促使外部知识的结合,特别是来自知识图谱(KG)的知识。以往的KG知识提取方法主要侧重于结构化知识提取,而忽略了非结构化数据模式和语义高维医学知识。作为回应,我们提出了REALM,这是一种检索增强生成(RAG)驱动的框架,用于增强多模态EHR表示,以解决这些限制。首先,我们使用大型语言模型(LLM)对长上下文临床笔记进行编码,并使用GRU模型对时间序列EHR数据进行编码。原创 2024-03-26 17:29:06 · 208 阅读 · 0 评论 -
RAFT: Adapting Language Model to Domain Specific RAG
在文本数据的大型语料库上预训练大型语言模型(LLM)现在是一种标准范式。当将这些LLM用于许多下游应用程序时,通常会通过基于RAG的计算或微调,将新知识(例如,时间关键新闻或私有领域知识)额外训练到预训练的模型中。然而,该模型获得这些新知识的最佳方法仍然是一个悬而未决的问题。在本文中,我们提出了检索增强微调(RAFT),这是一种训练方法,可以提高模型在“openbook”域设置中回答问题的能力。在RAFT中,给定一个问题和一组检索到的文档,我们训练模型忽略那些对回答问题没有帮助的文档,称之为干扰文档。原创 2024-03-26 17:21:44 · 315 阅读 · 0 评论 -
Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented
检索增强生成(RAG)通过合并来自检索的附加信息来增强大型语言模型(LLM)。然而,研究表明,LLM在有效使用检索到的信息方面仍然面临挑战,甚至忽视或被其误导。关键原因是LLM的训练并没有清楚地使LLM学会如何使用不同质量的输入检索文本。在本文中,我们提出了一个新的视角,将LLM在RAG中的作用视为“信息精炼器”,这意味着无论检索到的文本的正确性、完整性或有用性如何,LLM都可以始终如一地将知识整合到检索到的文本和模型参数中,以生成比检索到的更简洁、准确和完整的文本。原创 2024-03-18 15:03:40 · 396 阅读 · 0 评论 -
Development and Testing of Retrieval Augmented Generation in Large Language Models
目的:大型语言模型(LLM)在医学应用中具有重要的前景。然而,它们的实际实施往往无法结合当前临床专业和任务的基于指南的知识。此外,像微调这样的传统精度提高方法也带来了相当大的计算挑战。检索增强生成(RAG)是在LLM中定制领域知识的一种很有前途的方法,特别适合医疗保健实施中的需求。本案例研究介绍了为医疗保健量身定制的LLM-RAG管道的开发和评估,特别关注术前医学。LLM-RAG系统产生的反应的准确性和安全性被评估为主要终点。方法。原创 2024-03-11 10:53:37 · 97 阅读 · 0 评论 -
A Comprehensive Chinese Benchmark for Retrieval-Augmented Generation of Large Language Models
检索增强生成(RAG)是一种通过引入外部知识源来增强大型语言模型(LLM)能力的技术。这种方法解决了LLM的常见局限性,包括过时的信息和产生不准确“幻觉”内容的趋势。然而,评估RAG系统是一个挑战。大多数当前的基准测试主要集中在问答应用程序上,而忽略了RAG可能有益的更广泛的场景。此外,他们在实验中只评估了RAG管道的LLM组件的性能,而忽略了检索组件和外部知识数据库构建的影响。为了解决这些问题,本文构建了一个大规模、更全面的基准,并在各种RAG应用场景中评估了RAG系统的所有组件。原创 2024-03-06 13:16:22 · 516 阅读 · 0 评论