Gemini MCP Server环境变量配置全解析:定制你的AI协作平台
Gemini MCP Server作为一款强大的AI协作平台,提供了丰富的环境变量配置选项,让你能够根据实际需求定制平台行为。通过环境变量,你可以轻松切换AI模型、调整响应温度、配置API密钥等,无需修改源代码即可实现个性化定制。本文将详细介绍Gemini MCP Server的环境变量配置方法,帮助你充分发挥平台的潜力。
环境变量基础
Gemini MCP Server的环境变量配置系统采用了灵活的设计,支持通过操作系统环境变量或.env文件进行配置。系统会优先读取操作系统环境变量,当ZEN_MCP_FORCE_ENV_OVERRIDE设置为true时,.env文件中的配置将覆盖系统环境变量。这种设计既保证了配置的灵活性,又便于在不同环境中进行部署和迁移。
环境变量的读取和管理由utils/env.py模块负责,该模块提供了get_env()、get_env_bool()等便捷函数,确保环境变量的读取和解析过程简单可靠。你可以通过修改utils/env.py文件来自定义环境变量的读取行为,例如添加新的环境变量解析规则或修改默认值。
核心环境变量配置
模型配置
Gemini MCP Server支持多种AI模型,你可以通过环境变量轻松切换和配置这些模型。
-
DEFAULT_MODEL:设置默认使用的AI模型,默认为"auto"。当设置为"auto"时,系统会根据任务类型和可用模型自动选择最合适的模型。你可以通过修改config.py文件中的
DEFAULT_MODEL变量来设置默认模型,或通过环境变量DEFAULT_MODEL进行覆盖。DEFAULT_MODEL = get_env("DEFAULT_MODEL", "auto") or "auto" -
MAX_MCP_OUTPUT_TOKENS:控制MCP协议传输的最大令牌数,默认为25000。这个值会影响MCP_PROMPT_SIZE_LIMIT的计算,后者决定了用户输入的最大字符数。你可以通过设置环境变量
MAX_MCP_OUTPUT_TOKENS来调整这个限制。max_tokens_str = get_env("MAX_MCP_OUTPUT_TOKENS")
API密钥配置
为了使用第三方AI服务,你需要配置相应的API密钥。Gemini MCP Server支持多种AI服务提供商,包括Google Gemini、OpenAI、Azure OpenAI等。
-
GEMINI_API_KEY:Google Gemini API密钥。如果未设置此密钥,Gemini相关功能将不可用。
gemini_key = get_env("GEMINI_API_KEY") -
OPENAI_API_KEY:OpenAI API密钥。用于访问OpenAI的GPT系列模型。
openai_key = get_env("OPENAI_API_KEY") -
AZURE_OPENAI_API_KEY和AZURE_OPENAI_ENDPOINT:Azure OpenAI服务的API密钥和端点URL。
azure_key = get_env("AZURE_OPENAI_API_KEY") azure_endpoint = get_env("AZURE_OPENAI_ENDPOINT") -
XAI_API_KEY:X.AI API密钥,用于访问Grok等模型。
xai_key = get_env("XAI_API_KEY") -
DIAL_API_KEY:DeepSeek API密钥,用于访问DeepSeek系列模型。
dial_key = get_env("DIAL_API_KEY") -
OPENROUTER_API_KEY:OpenRouter API密钥,用于访问多种第三方模型。
openrouter_key = get_env("OPENROUTER_API_KEY") -
CUSTOM_API_URL、CUSTOM_API_KEY和CUSTOM_MODEL_NAME:自定义AI服务的URL、API密钥和模型名称。这对于使用本地部署的模型(如Ollama)非常有用。
custom_url = get_env("CUSTOM_API_URL") custom_key = get_env("CUSTOM_API_KEY", "") or "" custom_model = get_env("CUSTOM_MODEL_NAME", "llama3.2") or "llama3.2"
行为配置
Gemini MCP Server提供了多种环境变量来调整平台的行为,包括日志级别、禁用工具、语言设置等。
-
LOG_LEVEL:设置日志级别,默认为"DEBUG"。可用的日志级别包括DEBUG、INFO、WARNING、ERROR和CRITICAL。
log_level = (get_env("LOG_LEVEL", "DEBUG") or "DEBUG").upper() -
DISABLED_TOOLS:禁用指定的工具,多个工具之间用逗号分隔。例如,设置为"debug,secaudit"将禁用调试和安全审计工具。
disabled_tools_env = (get_env("DISABLED_TOOLS", "") or "").strip() -
LOCALE:设置系统语言,默认为空(英语)。支持的语言代码包括"zh-CN"(简体中文)、"ja-JP"(日语)、"es-ES"(西班牙语)等。
LOCALE = get_env("LOCALE", "") or "" -
DEFAULT_THINKING_MODE_THINKDEEP:设置深度思考模式的默认级别,默认为"high"。可用的级别包括"low"、"medium"和"high",级别越高,分析越深入,但响应时间也会相应增加。
DEFAULT_THINKING_MODE_THINKDEEP = get_env("DEFAULT_THINKING_MODE_THINKDEEP", "high") or "high"
高级配置
温度设置
Gemini MCP Server允许为不同类型的任务设置不同的响应温度,以控制AI模型的创造力和确定性。温度值范围为0到1,值越低,响应越确定;值越高,响应越有创造力。
在config.py文件中,你可以找到以下温度设置:
- TEMPERATURE_ANALYTICAL:用于需要精确性和一致性的任务,如代码审查和调试,默认值为0.2。
- TEMPERATURE_BALANCED:用于一般对话,提供平衡的一致性和多样性,默认值为0.5。
- TEMPERATURE_CREATIVE:用于探索性任务,如架构讨论和头脑风暴,默认值为0.7。
虽然这些温度值目前是硬编码的,但你可以轻松修改config.py文件,将它们改为通过环境变量进行配置,例如:
TEMPERATURE_ANALYTICAL = float(get_env("TEMPERATURE_ANALYTICAL", "0.2"))
.env文件配置
除了直接设置操作系统环境变量外,Gemini MCP Server还支持使用.env文件进行配置。.env文件是一个简单的文本文件,每行包含一个环境变量的键值对。
要使用.env文件,只需在项目根目录创建一个名为.env的文件,并添加所需的环境变量。例如:
DEFAULT_MODEL=gemini-pro
GEMINI_API_KEY=your_gemini_api_key
LOG_LEVEL=INFO
LOCALE=zh-CN
.env文件的加载和解析由utils/env.py模块处理。系统会自动读取项目根目录下的.env文件,并将其中的环境变量加载到系统中。如果需要重新加载.env文件,可以调用reload_env()函数。
配置示例
以下是一个完整的.env文件示例,展示了如何配置Gemini MCP Server的主要环境变量:
# 模型配置
DEFAULT_MODEL=gemini-pro
MAX_MCP_OUTPUT_TOKENS=50000
# API密钥
GEMINI_API_KEY=your_gemini_api_key_here
OPENAI_API_KEY=your_openai_api_key_here
AZURE_OPENAI_API_KEY=your_azure_api_key_here
AZURE_OPENAI_ENDPOINT=https://your-azure-endpoint.openai.azure.com/
# 行为配置
LOG_LEVEL=INFO
LOCALE=zh-CN
DEFAULT_THINKING_MODE_THINKDEEP=medium
DISABLED_TOOLS=secaudit,testgen
# 自定义模型配置
CUSTOM_API_URL=http://localhost:11434/v1
CUSTOM_MODEL_NAME=llama3.2
通过修改这个.env文件,你可以轻松定制Gemini MCP Server的行为,而无需修改源代码。
总结
Gemini MCP Server提供了丰富的环境变量配置选项,让你能够根据实际需求定制AI协作平台。通过本文介绍的环境变量,你可以轻松切换AI模型、配置API密钥、调整响应温度等,充分发挥平台的潜力。无论是个人开发者还是企业团队,都可以通过环境变量配置,让Gemini MCP Server更好地满足自身需求。
如果你想了解更多关于Gemini MCP Server的配置选项,可以查阅项目的官方文档:docs/configuration.md。此外,项目的README.md文件也提供了快速入门指南,帮助你快速搭建和配置Gemini MCP Server。
通过灵活运用环境变量,你可以打造一个真正属于自己的AI协作平台,提升开发效率,激发创新灵感。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



