「从零实现 RAG:基于 LangChain 的企业级问答系统实战」

在大模型逐渐普及的今天,Retrieval-Augmented Generation(RAG)作为提升模型可靠性和知识覆盖的重要技术方案,越来越多地被用于企业问答、文档助手、客户支持等场景。本文将带你从 0 开始,基于 LangChain 框架,逐步实现一个可落地的 RAG 系统。

项目架构与技术选型

1.1 什么是 RAG?

RAG(Retrieval-Augmented Generation)是一种结合文档检索与大模型生成的技术架构,用于构建可控性强、知识更新灵活的问答系统。 传统的 LLM 只能回答训练数据中的知识,而 RAG 允许我们将外部文档作为上下文动态注入大模型,从而实现“开箱即问”的能力。 基本流程如下:

在这里插入图片描述

1.2 技术选型说明

技术用途
LangChain管理文档加载、文本分块、嵌入生成等流程
OpenAI Embeddings将文本向量化为高维语义向量
MemoryVectorStoreLangChain 提供的轻量级内存向量数据库,适合原型,小规模任务和本地开发
OpenAI GPT (gpt-3.5 / gpt-4)语言生成模型,用于回答问题

使用 JavaScript 实现 RAG 系统

为什么选择 JavaScript 实现 RAG?

在 LangChain 最初的开发中,Python 是主流语言,很多功能模块(如 Embeddings、Retrieval、Chains)首先在 Python 端推出。但随着 LangChain.js 的发展,现在我们可以完全用 JavaScript/TypeScript 构建一个完整的 RAG 应用,并具备以下优势:

理由描述
前端/全栈友好如果你是前端或全栈开发者,JS/TS 是你熟悉的技术栈,无需切换语言
服务端一体化可以直接将 LLM 接入集成到 Node.js 服务(如 Express)中,部署方便
生态兼容性强能方便集成现有的 JS 库,如文件上传、数据库、前端组件库
支持 Edge Function可部署到 Vercel/Cloudflare 等平台,实现无服务器的轻量推理服务

2.3 本章目标

我们将在本章完成以下内容:

  • 文档加载与分块(Text Split)
  • 向量生成(OpenAIEmbeddings)
  • 存储至 MemoryVectorStore
  • 编写简洁的检索函数供后续生成使用

你需要准备:

  • Node.js 环境(建议版本 ≥ 18)
  • OpenAI API Key(保存在 .env 文件中)
  • 示例文档:比如 google服务文档

2.4 完整流程图

在这里插入图片描述

具体实现

1. 搭建一个LangGraph Server

通过脚手架可以直接创建一个LangGraph app,减少之前繁琐步骤

1. Install the LangGraph CLI
sh体验AI代码助手代码解读复制代码npx @langchain/langgraph-cli@latest

# Or install globally, will be available as `langgraphjs`

npm install -g @langchain/langgraph-cli
2. Create a LangGraph App
sh体验AI代码助手代码解读复制代码npm create langgraph
3.Install Dependencies
sh体验AI代码助手代码解读复制代码cd your-repo
yarn
4. Create a .env file
sh体验AI代码助手代码解读复制代码LANGSMITH_API_KEY=lsv2...
TAVILY_API_KEY=tvly-... // jump to https://app.tavily.com/home
OPENAI_API_KEY=sk-...

如何申请LANG SMITH API KEY

  • jump to smith.langchain.com/
  • 点击右上侧的developer button
  • 点击左边的API KEY则就可以申请了

在这里插入图片描述

如何得到OPENAI API KEY

访问 zzz-api,之前有提供免费的API_KEY,现在好像没有了,本文只是提供一个link链接关于,如果申请OPENAI API KEY在国内,不能保证如果你充钱之后的后续服务。望谨慎充钱。(Deepseek不支持generating embeddings,所以本次案例不能采用deepseek来做展示)

2. 具体实现
1. 创建一个state

在使用 LangGraph 构建基于节点的数据流图时,State(状态) 是核心概念之一。它定义了图中所有节点和边之间通信使用的共享上下文信息。理解并正确使用 State 是设计可靠 LangGraph 流程的关键。

什么是 State?

State 就是图的共享上下文,是每个 Node(节点)读写数据的“中心”。

每一个节点都会:

  • 读取当前的 State
  • 返回对 State 的局部更新

这些更新会通过 State 中定义的 Reducer 函数 应用到现有状态上。

如何定义 State?

通过 Annotation.Root() 定义一个 Annotation 对象,用于声明 State 的 schema(结构)。

ts体验AI代码助手代码解读复制代码import { Annotation } from "@langchain/langgraph";

const StateAnnotation = Annotation.Root({
  foo: Annotation<string>,
  bar: Annotation<number>,
});

Reducer:状态更新规则

  • 每个 key 可以附加一个 reducer 函数,控制如何处理节点返回的更新。
  • 如果不定义,默认是直接 覆盖(override) 原值。
  • 你可以自定义 reducer,比如对数组进行追加:
ts体验AI代码助手代码解读复制代码const StateAnnotation = Annotation.Root({
  messages: Annotation<string[]>({
    reducer: (state, update) => state.concat(update),
    default: () => [],
  }),
});

多 Schema 管理(Input / Output / Internal) LangGraph 支持为图定义多个 schema:

类型 用途

类型用途
InputAnnotation输入 schema
OutputAnnotation输出 schema
OverallAnnotation运行时的完整内部状态

这种分离可以让你:

  • 在输入中只传入一部分状态(如 user_input)
  • 在输出中只提取部分结果(如 graph_output)
  • 在中间节点中处理完整状态

Graph 中的 State 是如何工作的?

  1. 每个节点读取一份当前 State 的 快照。
  2. 节点返回一个“局部更新对象”。
  3. Graph 自动将这些更新合并回 State: 如果 key 有 reducer,使用 reducer 处理 否则使用默认覆盖方式

消息(Messages)作为 State 在对话类系统中,一个常见模式是将历史消息作为 State 的一部分。

LangGraph 提供了内置的 messagesStateReducer 和 MessagesAnnotation 来支持这种模式:

ts体验AI代码助手代码解读复制代码import { MessagesAnnotation } from "@langchain/langgraph";

const graph = new StateGraph(MessagesAnnotation);

相当于:

ts体验AI代码助手代码解读复制代码import { Annotation, messagesStateReducer } from "@langchain/langgraph";

const StateAnnotation = Annotation.Root({
  messages: Annotation<BaseMessage[]>({
    reducer: messagesStateReducer,
    default: () => [],
  }),
});

在本次的教程中,使用了定制化的reducer:

ts体验AI代码助手代码解读复制代码export const GraphState = Annotation.Root({
  messages: Annotation<BaseMessage[]>({
    reducer: (x, y) => x.concat(y),
    default: () => [],
  }),
});

2.构建基于 MemoryVectorStore 的检索工具节点(ToolNode)

在本节中,我们使用 JavaScript + LangChain 构建一个完整的文档检索组件。整个流程包括:

  1. 加载网页文档
  2. 文本分块(chunking)
  3. 构建向量数据库
  4. 构建 retriever 工具
  5. 集成为 ToolNode 节点
第一步:加载网页内容为文档
ts体验AI代码助手代码解读复制代码const urls = ["https://policies.google.com/terms?hl=zh-CN"];

const docs = await Promise.all(
  urls.map((url) => new CheerioWebBaseLoader(url).load()),
);
const docsList = docs.flat();

我们使用 CheerioWebBaseLoader 将网页内容抓取下来并转为 LangChain 文档对象。Promise.all 支持并发加载多个 URL,.flat() 将嵌套数组合并成单一文档列表。

第二步:对文档进行文本切块
ts体验AI代码助手代码解读复制代码const textSplitter = new RecursiveCharacterTextSplitter({
  chunkSize: 500,
  chunkOverlap: 50,
});
const docSplits = await textSplitter.splitDocuments(docsList);

长文本不适合直接用于嵌入,因此我们使用 RecursiveCharacterTextSplitter 将内容按 500 字符一块进行分割,并设置 50 字符重叠,保证语义连贯。

第三步:构建向量数据库(MemoryVectorStore)
ts体验AI代码助手代码解读复制代码const vectorStore = await MemoryVectorStore.fromDocuments(
  docSplits,
  new OpenAIEmbeddings({
    configuration: {
      baseURL: "https://api.chatanywhere.tech/v1", //需要更改 Open AI base URL
    },
  }),
);

我们使用 OpenAIEmbeddings 将文本块转为向量,并存入内存型向量数据库 MemoryVectorStore 中。此方式适合开发调试或轻量化场景,不依赖外部服务如 FAISS。

第四步:构建 Retriever 工具
ts体验AI代码助手代码解读复制代码const retriever = vectorStore.asRetriever();
const tool = createRetrieverTool(retriever, {
  name: "retrieve_blog_posts",
  description:
    "Search and return information about Lilian Weng blog posts on LLM agents, prompt engineering, and adversarial attacks on LLMs.",
});

通过 createRetrieverTool 包装 Retriever,我们定义了一个结构化的工具,可供 Agent 调用。工具名称与描述信息将用于后续 LLM 选择工具时的参考依据。

第五步:构建 ToolNode 节点
ts体验AI代码助手代码解读复制代码export const tools = [tool];
export const toolNode = new ToolNode<typeof GraphState.State>(tools);

最终我们将工具包装为一个 ToolNode 节点,用于插入到 LangGraph 中执行调用流程。该节点将在运行时被 LLM 激活,并返回与问题相关的文档片段。

3. 构建 RAG 推理流程中的 LangGraph 节点函数

这一段代码是构建基于 LangGraph 的 Retrieval-Augmented Generation(RAG)流程的核心逻辑模块。它定义了多个节点函数,处理从用户提问、问题改写、文档检索、文档打分、判断是否继续检索,到最终生成答案的整个闭环流程。

shouldRetrieve:判断是否触发工具调用
ts体验AI代码助手代码解读复制代码function shouldRetrieve(state: typeof GraphState.State): string {
  const { messages } = state;
  const lastMessage = messages[messages.length - 1];

  if (
    "tool_calls" in lastMessage &&
    Array.isArray(lastMessage.tool_calls) &&
    lastMessage.tool_calls.length
  ) {
    return "retrieve";
  }
  return END;
}

这是一个决策节点:如果上一条消息包含工具调用(如调用了 retriever 工具),流程继续(返回 “retrieve”);否则返回 END,流程终止。

gradeDocuments:判断检索结果是否相关
ts体验AI代码助手代码解读复制代码async function gradeDocuments(state: typeof GraphState.State) {
  const tool = {
    name: "give_relevance_score",
    description: "Give a relevance score to the retrieved documents.",
    schema: z.object({
      binaryScore: z.string().describe("Relevance score 'yes' or 'no'"),
    }),
  };

  const prompt = ChatPromptTemplate.fromTemplate(`
    You are a grader assessing relevance of retrieved docs to a user question.
    ...
    Give a binary score 'yes' or 'no' ...
  `);

  const model = new ChatOpenAI({ ... }).bindTools([tool], {
    tool_choice: tool.name,
  });

  const chain = prompt.pipe(model);
  const lastMessage = state.messages[state.messages.length - 1];

  const score = await chain.invoke({
    question: state.messages[0].content,
    context: lastMessage.content,
  });

  return { messages: [score] };
}

该函数用于打分检索结果是否与用户问题相关。它将检索到的文档传入 ChatPromptTemplate,通过一个预定义工具(give_relevance_score)返回 yes/no。

checkRelevance:根据评分判断是否继续
ts体验AI代码助手代码解读复制代码function checkRelevance(state: typeof GraphState.State): string {
  const lastMessage = state.messages[state.messages.length - 1];
  const toolCalls = (lastMessage as AIMessage).tool_calls;
  if (toolCalls[0].args.binaryScore === "yes") {
    return "yes";
  }
  return "no";
}

这个节点判断打分结果,如果 binaryScore 是 yes,说明文档相关,可以继续;否则重新改写问题再尝试检索。

agent:调用带工具的 LLM 执行决策
ts体验AI代码助手代码解读复制代码async function agent(state: typeof GraphState.State) {
  const filteredMessages = state.messages.filter((msg) => {
    if ("tool_calls" in msg) {
      return msg.tool_calls[0].name !== "give_relevance_score";
    }
    return true;
  });

  const model = new ChatOpenAI({ ... }).bindTools(tools);
  const response = await model.invoke(filteredMessages);

  return { messages: [response] };
}

这是 LLM 决策节点,调用带有工具调用能力的 LLM,根据上下文决定是否触发 retriever 工具。此处会过滤掉评分工具调用信息,避免影响模型判断

rewrite:改写不清晰的问题
ts体验AI代码助手代码解读复制代码async function rewrite(state: typeof GraphState.State) {
  const question = state.messages[0].content;
  const prompt = ChatPromptTemplate.fromTemplate(`
    Look at the input and try to reason about the underlying semantic intent ...
    Formulate an improved question:
  `);

  const model = new ChatOpenAI({ ... });
  const response = await prompt.pipe(model).invoke({ question });

  return { messages: [response] };
}

该节点用于处理不相关或语义模糊的用户提问。它使用 LLM 对原问题进行语义增强和重写,从而提高检索效果。

generate:基于文档生成最终答案
ts体验AI代码助手代码解读复制代码async function generate(state: typeof GraphState.State) {
  const question = state.messages[0].content;
  const lastToolMessage = state.messages
    .slice()
    .reverse()
    .find((msg) => msg._getType() === "tool");

  const docs = lastToolMessage.content;
  const prompt = await pull<ChatPromptTemplate>("rlm/rag-prompt");

  const llm = new ChatOpenAI({ ... });
  const ragChain = prompt.pipe(llm);
  const response = await ragChain.invoke({ context: docs, question });

  return { messages: [response] };
}

这是最后一步:基于之前的检索结果生成最终答案。它拉取了一个 RAG Prompt 模板(rlm/rag-prompt),填入上下文文档和用户问题,并返回 LLM 的响应。

构建 LangGraph 工作流主图:RAG 推理流程图

这段代码基于 @langchain/langgraph 构建了一个带条件分支的推理流程图。整个图负责 orchestrate 多步操作,从提问到文档检索、改写、判断、最终生成回答。

依赖导入
ts体验AI代码助手代码解读复制代码import { END, StateGraph, START } from "@langchain/langgraph";
import { GraphState } from "./state.js";
import {
  agent,
  gradeDocuments,
  rewrite,
  generate,
  shouldRetrieve,
  checkRelevance,
} from "./edges.js";
import { toolNode } from "./retriever.js";

  • StateGraph:核心图结构构造器。
  • START / END:特殊标识起点和终点。
  • GraphState:定义状态结构(上下文信息如 messages)。
  • edges:RAG 流程中每个节点的处理逻辑。
  • toolNode:实际执行文档检索的节点(如调用向量数据库)。
创建图结构并添加节点
ts体验AI代码助手代码解读复制代码const workflow = new StateGraph(GraphState)
  .addNode("agent", agent)
  .addNode("retrieve", toolNode)
  .addNode("gradeDocuments", gradeDocuments)
  .addNode("rewrite", rewrite)
  .addNode("generate", generate);

在 StateGraph 中注册流程节点:

  • agent:调用带工具能力的 LLM。
  • retrieve:执行检索操作。
  • gradeDocuments:给检索文档评分。
  • rewrite:改写不相关的问题。
  • generate:最终回答生成。
定义执行路径:从 START 到 agent
ts体验AI代码助手代码解读复制代码workflow.addEdge(START, "agent");

流程从起点开始,首先调用 agent 节点生成思考结果。

判断是否需要检索
ts体验AI代码助手代码解读复制代码workflow.addConditionalEdges("agent", shouldRetrieve);

shouldRetrieve 是一个决策函数:

  • 返回 “retrieve”:进入 retrieve 检索节点。
  • 返回 END:直接结束。
检索后打分
ts体验AI代码助手代码解读复制代码workflow.addEdge("retrieve", "gradeDocuments");

文档检索后,会执行 gradeDocuments,评估其与问题的相关性。

判断文档是否足够好
php体验AI代码助手代码解读复制代码workflow.addConditionalEdges(
  "gradeDocuments",
  checkRelevance,
  {
    yes: "generate",
    no: "rewrite",
  },
);

如果 checkRelevance 返回 yes:文档质量高,进入 generate。 否则进入 rewrite 节点,重新改写问题再回到 agent。

终点和回环逻辑
ts体验AI代码助手代码解读复制代码workflow.addEdge("generate", END);
workflow.addEdge("rewrite", "agent");

generate 后结束整个流程。 改写后的问题再次进入 agent,形成循环,直到找到相关答案。

编译工作流
ts体验AI代码助手代码解读复制代码export const graph = workflow.compile();

最终导出编译好的 graph,可直接通过 .invoke() 调用执行。这个图可以被用作 LangGraph 多轮推理系统的主逻辑控制器。

以上就是全部code实现,想要访问阅览完整代码,请点击这里。

实现效果展示

在这里插入图片描述

如何零基础入门 / 学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么我作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,希望可以帮助到更多学习大模型的人!至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

全套AGI大模型学习大纲+路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

read-normal-img

640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈
基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉 福利来袭优快云大礼包:《2025最全AI大模型学习资源包》免费分享,安全可点 👈

img

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

### LangChain智能体的实际应用案例 #### 使用LangChain智能体编写Python代码并执行以生成答案 通过LangChain框架,可以实现让智能体自动编写和运行Python代码来解决特定问题。例如,在一个实际应用场景中,假设有一个需求是要计算两个数相加的结果,并返回这个结果作为字符串形式。 ```python from langchain import PythonREPL, LLMChain llm_chain = LLMChain(prompt="Write a python function that adds two numbers and returns the result as string.", llm=...) repl = PythonREPL() def add_numbers(a, b): code = llm_chain.run(f"Add {a} and {b}") exec(code, globals()) func_name = ... # Extract function name from generated code return eval(func_name)(a, b) result = add_numbers(3, 5) print(result) # Output should be '8' ``` 这段代码展示了如何利用`LLMChain`来自动生成一段能够完成指定任务(这里是两数相加)的Python函数,并借助于`PythonREPL`类去执行该自动生成的代码片段[^4]。 #### 构建基于多源信息检索的回答系统 另一个有趣的实战案例涉及到了RAG(Retrieve-Augmented Generation),即增强型生成技术的应用。在这个场景里,当用户向系统提问时,不是简单地依赖单一的语言模型来进行回复;而是先从外部的知识库或者其他数据源获取相关信息,再结合这些信息以及内部的大规模预训练语言模型共同作用下给出更精准、更有依据性的回应。 具体来说,可以通过如下方式实现: 1. 定义查询模板; 2. 利用搜索引擎API或其他索引服务查找相关资料; 3. 将找到的内容传递给负责最终输出回答部分的大型语言模型; 4. 对生成的文字做适当调整优化使其更加自然流畅[^2]。 #### 创建自动化文档处理工作流 对于企业级应用而言,经常会有大量文件需要定期审查更新的情况发生。这时就可以考虑采用LangChain来设计一套智能化的工作流程解决方案。比如针对PDF格式的技术手册维护项目,可以让智能体识别新版本发布后哪些章节发生了变动,提取新增内容摘要发送邮件通知相关人员审阅确认等操作。 这类功能通常涉及到OCR光学字符识别、NLP自然语言理解等多个领域交叉合作才能达成理想效果。不过得益于LangChain所提供的灵活接口机制,使得这一切变得相对容易许多[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值