LangGraph 使用 init_chat_model 一键对接 siliconflow、Ollama 等各大 LLM 供应商并调用 MCP 服务以及流式输出

部署运行你感兴趣的模型镜像

以 Siliconflow (硅基流动) 为例(其他云端供应商类似):

from langchain.chat_models import init_chat_model

model = init_chat_model(
    model_provider="openai",
    model="deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",
    base_url="https://api.siliconflow.cn/v1/",
    api_key="sk-n********************ywocwd",
    temperature=0
)

 以 本地 Ollama 为例:

from langchain.chat_models import init_chat_model

model = init_chat_model(
    model_provider="ollama",
    model="qwen2.5:3b",
    temperature=0
)

 对接MCP服务流式输出

想要什么服务就去这搜:MCP Servers

MCP接口包,装就完了

pip install -U langchain-mcp-adapters

from langchain_mcp_adapters.client import MultiServerMCPClient
from langgraph.prebuilt import create_react_agent

# 初始化 MCP 客户端
async with MultiServerMCPClient(
    {
         "tavily-mcp": {
            "command": "npx",
            "args": [
                "-y",
                "tavily-mcp"
            ],
            "env": {
                "TAVILY_API_KEY": "tvly-dev-a**********xAQ"
            },
            "disabled": False,
            "autoApprove": []
        }
    }
) as client:

    # 初始化 Agent
    agent = create_react_agent(
    model=model,
    tools=client.get_tools(),
    )

    # 调用 Agent
    stream = agent.astream({"messages": [
        {"role": "system", "content": "You are a helpful assistant.Please use your tools solving the problem."},
        {"role": "user", "content": "帮我查一下广州的天气?"}
    ]})
    
    # 流式输出结果
    async for chunk in stream:
        print(chunk)

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值