利用LangChain实现RAG

本文详细介绍了RAG(Retrieval-AugmentedGeneration)技术,包括使用DocumentLoader加载不同类型文档,TextSplitter进行文本切割,Embeddingmodel创建向量,以及通过检索相关上下文获取最终答案的过程。

  检索增强生成(Retrieval-Augmented Generation, RAG)结合了搜寻检索生成能力和自然语言处理架构,透过这个架构,模型可以从外部知识库搜寻相关信息,然后使用这些信息来生成response。要完成检索增强生成主要包含四个步骤:

1.TextLoad:

2.TextSplit:

3.Generate and save Embedding:

4.Search relavant context and get final anwser.

DocumentLoader

  Langchain的document_loader目录下提供多种Load不同类型文档的方法,文档大类型总体可以分为结构化文档和非结构化文档。不同Loader的API信息如下图所示,更多Loader相关的API信息可查看这里

下面是Load csv格式文件数据的代码和结果,import CSVLoader,print load的结果。可以看到,结果是一个List,List中每一个item是一个Document对象,包含page_content 和metadata数据,metadata包含source和row两个信息。

除了Load csv格式文件,还可以load pdf文件,import PyPDFLoader,load后的数据也是一个List,list中的每个value是Document对象,具体结果如下所示:

  在Load PDF格式文档的时候,可以选择多种Loader,例如UnstructuredPDFLoader,MathpixPDFLoader,OnlinePDFLoader,PyPDFium2Loader,PDFMinerLoader,PyMuPDFLoader,PyPDFDirectoryLoader,PDFPlumberLoader。另外,在load PDF文档时还可以通过参数控制是否需要解析图片上的文字信息等。总之,PDF的loader是非常成熟和丰富的。

除了load PDF格式文档,当然还支持txt格式,markdown格式,html格式等文档,在load的时候可以通过参数选择是否显示load进度,是否使用多线程进行load,多线程load可提升load效率。代码如下所示:

loader = DirectoryLoader('testdata', glob="**/*.txt",

show_progress=True, use_multithreading=True)

docs = loader.load()

print(docs)

TextSplitter

  langchain提供了多种TextSplitter,具体如下图所示,这些spliter中比较常用的有TextSplitter,CharacterText

### 如何使用 LangChain 实现检索增强生成(RAG) 检索增强生成(Retrieval-Augmented Generation, RAG)是一种结合了检索模型和生成模型的技术,旨在通过从外部数据源中提取相关信息来提高生成质量。以下是基于 LangChainRAG 实现方法。 #### 使用 LangChain 构建 RAG 流程 LangChain 提供了一套工具链用于构建复杂的自然语言处理应用,其中包括 RAG实现。以下是一个完整的流程说明: 1. **定义文档格式化函数** 需要创建一个函数 `format_docs` 将检索到的文档转换为适合输入给大语言模型的形式。此过程通常涉及拼接多个文档的内容并保留其结构[^3]。 2. **设置检索器** 利用 LangChain 中的检索组件(如 VectorStoreRetriever),可以从存储的知识库中获取与查询最相关的上下文信息。这些信息作为额外的背景提供给后续的语言模型。 3. **组合运行流** 创建一个可执行的工作流对象 `rag_chain`,它串联了以下几个阶段: - 输入问题; - 调用检索器获得相关文档; - 对文档进行格式化; - 结合提示模板将问题和上下文传递至大型语言模型(LLM); - 解析 LLM 输出的结果。 下面展示了一个具体的代码实例: ```python from langchain_core.output_parsers import StrOutputParser from langchain_core.runnables import RunnablePassthrough def format_docs(docs): """将检索到的文档列表转化为字符串形式""" return "\n\n".join(doc.page_content for doc in docs) # 定义工作流 rag_chain = ( { "context": retriever | format_docs, "question": RunnablePassthrough() } | prompt | llm | StrOutputParser() ) # 执行实时推理 for chunk in rag_chain.stream("What is Task Decomposition?"): print(chunk, end="", flush=True) ``` 上述脚本展示了如何逐步调用各个模块完成端到端的任务分解问答功能。 --- #### 关键概念解释 - **retriever**: 这里指代的是一个能够依据用户提问返回关联度较高的文档片段的对象。 - **prompt**: 表达清晰逻辑关系的引导语句设计模式,指导 AI 正确理解任务需求。 - **llm**: 大型预训练语言模型负责最终答案生成环节。 以上各要素共同协作构成了高效的 RAG 系统架构。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

taoli-qiao

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值