使用Langchain调用模型上下文协议 (MCP)服务
MCP的火爆带来了很多的优质MCP服务,怎么将这些优质的MCP服务快速的集成到agent的能力上,除了官方的简单适配器外,我发现了一个宝藏Python库:mcpstore
mcpstore已经发布到PyPI上,使用
pip install mcpstore就可以直接使用,作者设计的非常直观人性化,没有复杂的名称,还采用了链式调用,非常的直观。
store = MCPStore.setup_store()
store.for_store().add_service({
"name": "mcpstore-wiki", "url": "https://mcpstore.wiki/mcp"})
tools = store.for_store().for_langchain().list_tools()
几行代码就可以直接使用tools了,这个tools列表是完全兼容langchain的,可以和我们已经通过@tool定义好的方法直接使用列表加法添加,作者还提供了一个可以直接运行的例子:
from langchain.agents import create_tool_calling_agent, AgentExecutor
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from mcpstore import MCPStore
store = MCPStore.setup_store()
store.for_store().add_service({
"name":"mcpstore-wiki","url":"https://mcpstore.wiki/mcp"})
tools = store.for_store().for_langchain().list_tools()
# 如果要添加本地化的启动比较慢的服务 可以尝试time.sleep(5)一会
llm = ChatOpenAI(
temperature=0, model="deepseek-chat",
openai_api_key="sk-****",
openai_api_base="httpss://api.deepseek.com"
)
prompt = ChatPromptTemplate.from_messages([
(

最低0.47元/天 解锁文章
1427

被折叠的 条评论
为什么被折叠?



