LangChain实战 | 实现一个检索增强生成系统(RAG)

在人工智能迅速发展的今天,大语言模型(如GPT-4)展示出了强大的语言生成能力。

然而,这类模型也有其局限性,比如无法动态更新知识库、对特定领域信息掌握不足以及容易生成“看似合理但错误”的答案。

为了解决这些问题,**RAG(Retrieval-Augmented Generation)**应运而生。

RAG的最大特点在于,它不仅生成答案,还能提供答案的上下文引用文本。

这种能力显著提高了系统的可信度可解释性,尤其在需要验证信息来源的应用场景(如法律、医学、学术研究等)中具有重要价值。

一、业务需求描述

知识库中的文档可能会不断更新,例如新增文件、修改现有文件等。系统需要能够检测到这些变化,并自动完成以下任务:

  • 识别新增或更新的文件(通过计算文件的哈希值)。
  • 生成嵌入并存储到向量数据库中。
  • 避免重复处理已存在的文档,提升效率。

系统不仅需要生成针对用户问题的自然语言答案,还需要明确标明答案的来源,提供可验证的引用文本。这一功能对提升系统的可信度和可解释性至关重要。

  • 用户提问后,系统检索最相关的片段,将其作为上下文提供给生成模型。
  • 在每个文本片段中,附加文件名、来源路径、片段内容等元信息。

二、系统的工作流程

RAG系统的实现可以分为以下几个步骤,每一步都起着至关重要的作用。以下流程图展示了一个完整的RAG系统工作流程:

可以看出,在生成答案的同时,系统会提供引用文档内容作为支撑,这与仅提供答案的传统生成式模型形成了鲜明对比。

三、关键技术要点

3.1 文件更新与动态管理

为了确保系统知识库的实时性,我们通过计算文件哈希值检测文档的更新或新增。一旦检测到新文件或文件变化,系统会自动生成新嵌入并更新向量数据库。

3.1 提供引用文本的重要性

在实际应用中,系统提供引用文本的能力可以解决以下问题:

  1. 增强可信度:用户不再只是依赖生成模型的“黑盒答案”,而是可以验证引用内容的准确性。
  2. 提升可解释性:对于复杂问题,引用上下文能让用户了解生成答案的依据和背景。
  3. 支持领域审查:在需要严格审查的领域(如法律、医学),引用文本是不可或缺的。

四、LangChain组件概述

LangChain是一个非常适合的工具框架。LangChain通过模块化设计,简化了从数据加载到问答生成的全流程操作。当前系统使用到的核心模块包括:

  1. 数据加载器(Loader):支持多种数据格式的加载(如文本、PDF等)。
  2. 文本分割器(Text Splitter):将长文本分割为适合检索的短片段。
  3. 嵌入与向量存储:将文本映射到高维向量空间并存储,用于快速检索。
  4. Prompt管理:灵活设计生成模型的输入提示(Prompt)。
  5. 问答链(Chain):将检索和生成串联,完成从问题到答案的闭环。

接下来,我们将实现一个支持引用文本的RAG系统,介绍核心实现思路。

五、核心实现思路

5.1. 文档加载与预处理

RAG系统的第一步是将文档加载进来。LangChain提供了强大的文档加载工具,如DirectoryLoader,可以一次性加载整个文件夹中的文本文件。加载后的文档需要经过预处理,包括清理无关字符和分割文本。

loader = DirectoryLoader(
        dir_path, 
        glob="**/*.txt", 
        loader_cls=TextLoader, 
        loader_kwargs={"encoding": "utf-8"}
    )

在文本分割阶段,系统会将文档切分成多个小片段,每个片段长度控制在500个字符左右,并设置一定的重叠区间(如50个字符)。这种分割方式确保了上下文的完整性,即使某些答案跨段落分布,也能在检索时保持语义连续性。

text_splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=50)
    texts = text_splitter.split_documents(data)

5.2. 嵌入与存储

分割后的文本片段需要通过嵌入模型(如OpenAI Embeddings)转化为向量表示。嵌入模型会将文本映射到高维向量空间,其中相似的文本会具有更接近的向量表示。生成的向量存储在向量数据库(如Chroma)中。

在存储向量时,我们附加了文档的元信息(Metadata),包括:

  • 文档来源(如文件名、路径)。
  • 文档的哈希值(用于检测更新)。

元信息的存储是实现引用文本的关键,因为它允许我们在检索阶段返回片段的来源和内容。

embeddings = OpenAIEmbeddings(model="text-embedding-3-large", base_url="https://api.openai-hk.com/v1")
    vectorstore = Chroma.from_documents(
        documents=texts,
        embedding=embeddings,
        collection_name="book_demo",
        persist_directory="./chroma_db"
    )

5.3. 问题检索与答案生成

当用户输入问题时,系统首先会根据问题检索最相关的文本片段。这一阶段的目标是找到支持答案的上下文,而不是直接生成答案。LangChain中,检索模块通过向量相似度计算(如余弦相似度)完成这一任务。

检索到的上下文片段将与用户问题一起,作为输入提供给生成模型。一个精心设计的Prompt模板会引导生成模型利用上下文回答问题。例如:

上下文信息如下:
---------------------
{context}
---------------------
请根据以上提供的上下文信息,不依赖其他外部知识,回答以下问题:
问题: {input}
答案:

在这个Prompt中,{context}是系统检索到的相关文档片段,而{input}是用户的问题。生成模型会在上下文的基础上,生成准确的答案。

def create_rag_chain(vectorstore, top_k=3):
    """创建RAG问答链
    
    Args:
        vectorstore: 向量存储实例
        top_k (int): 检索的文档数量
        
    Returns:
        RetrievalChain: RAG链实例
    """
    llm = ChatOpenAI(
        model="gpt-4o-mini",
        temperature=0,
        base_url="https://api.openai-hk.com/v1"
    )
    
    retriever = vectorstore.as_retriever(search_kwargs={"k": top_k})
    
    PROMPT = PromptTemplate.from_template("""  
    上下文信息如下
    ---------------------
    {context}
    ---------------------
    请根据以上提供的上下文信息,不依赖其他外部知识,回答以下问题
    问题: {input}
    答案:
    """)
    
    question_answer_chain = create_stuff_documents_chain(llm, PROMPT)
    return create_retrieval_chain(retriever, question_answer_chain)

5.4. 提供引用文本

除了最终答案,系统还会将检索到的上下文片段作为引用文本一并展示。例如,对于问题“菩提祖师身边有多少个人?”,系统可能会返回如下结果:

问题: 菩提祖师身边有多少个人?

答案: 菩提祖师身边有三十个小仙侍立台下。

引用文档:

  1. Source 1:

    text : 这猴王整衣端肃,随童子径入洞天深处观看:一层层深阁琼楼,一进进珠宫贝阙,说不尽那静室幽居,直至瑶台之下。见那菩提祖师端坐在台上,两边有三十个小仙侍立台下。果然是: 大觉金仙没垢姿,西方妙相祖菩提; 不生不灭三三行,全气全神万万慈。 空寂自然随变化,真如本性任为之…

    file_hash : 2545120aa977ff5dddc91f4cdabc808e

    source : …\data\xiyouji\西游记第一回.txt

  2. Source 2:

    text: “…”

这种引用形式不仅让用户知道答案的来源,还能验证答案是否准确。如果答案不够明确,用户可以直接查阅引用文档的全文。

for i, doc in enumerate(response["context"]):
        print(f"\nSource {i+1}:")
        print(f"  text: {clip_text(doc.page_content, threshold=350)}")
        for key in doc.metadata:
            if key != "pk":
                val = doc.metadata.get(key)
                clipped_val = clip_text(val) if isinstance(val, str) else val
                print(f"  {key}: {clipped_val}")

六、应用场景

支持引用文本的RAG系统在以下领域有着广泛的应用前景:

  1. 企业知识管理:帮助企业员工快速查询内部文档,同时提供引用内容便于验证。
  2. 法律咨询:在生成法律建议的同时,附上相关法规或案例的引用文本。
  3. 学术研究:支持研究人员检索论文片段,回答问题并标明来源。
  4. 医疗问答:提供医学知识回答的同时,附加权威文献或指南内容。

实现一个支持引用文本的RAG系统不仅能够动态整合外部知识库,还可以在生成答案的同时提供引用文本,从而显著增强答案的可信度和可解释性。

这一能力使得RAG系统在知识密集型领域大有可为。未来,系统可以进一步扩展系统功能,例如支持多模态数据(如图像、表格)或实时抓取外部信息,为用户提供更全面的智能服务。


七、如何系统学习掌握AI大模型?

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 2024行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

在这里插入图片描述

5. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方优快云官方认证二维码,免费领取【保证100%免费

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值