MCP CLI - 模型上下文提供者命令行界面
mcp-cli 项目地址: https://gitcode.com/gh_mirrors/mc/mcp-cli
1. 项目介绍
MCP CLI 是一个功能丰富的命令行界面工具,用于与模型上下文提供者服务器进行交互。它通过集成 CHUK-MCP 协议库,实现了与大型语言模型(LLM)的无缝通信。该协议库是一个兼容 pyodide 的纯 Python 协议实现,支持工具使用、会话管理和多种操作模式。
2. 项目快速启动
首先,确保您的系统中安装了 Python 3.11 或更高版本。
克隆仓库
git clone https://github.com/chrishayuk/mcp-cli.git
cd mcp-cli
安装依赖
pip install -e ".[cli,dev]"
运行 CLI
mcp-cli --help
使用 UV(可选)
如果偏好使用 UV 进行依赖管理:
# 安装 UV(如果尚未安装)
pip install uv
# 安装依赖
uv sync --reinstall
# 运行使用 UV
uv run mcp-cli --help
3. 应用案例和最佳实践
聊天模式
聊天模式提供了一个对话式界面,允许直接与 LLM 交互,并自动使用可用的工具:
mcp-cli chat --server sqlite
如果需要指定提供商和模型:
mcp-cli chat --server sqlite --provider openai --model gpt-4o
mcp-cli chat --server sqlite --provider ollama --model llama3.2
交互模式
交互模式提供了一个命令行界面,用于直接与服务器进行交互:
mcp-cli interactive --server sqlite
命令模式
命令模式提供了一个类 Unix 的接口,适用于自动化和管道集成:
mcp-cli cmd --server sqlite [options]
4. 典型生态项目
MCP CLI 可以与多种 LLM 提供商一起使用,例如 OpenAI 和 Ollama。以下是一些生态中常见的项目:
- OpenAI 集成:通过 MCP CLI 使用 OpenAI 提供的模型。
- Ollama 集成:在本地安装 Ollama 后,通过 MCP CLI 使用 Ollama 模型。
- 服务器配置:通过编辑
server_config.json
文件来配置服务器连接。
以上是关于 MCP CLI 的基本介绍、快速启动和应用案例。希望这能帮助您更好地理解和使用这个强大的工具。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考