5分钟极速部署!Portkey-AI Gateway本地REST模式全攻略
【免费下载链接】gateway 项目地址: https://gitcode.com/GitHub_Trending/ga/gateway
你还在为LLM API调用的稳定性发愁?部署Portkey-AI Gateway本地REST模式,一站式解决负载均衡、自动重试、智能 fallback 等核心痛点。本文将带你通过三种零门槛方案完成部署,即使是非技术人员也能轻松上手。
为什么选择本地REST模式?
Portkey-AI Gateway作为连接应用与100+LLM服务的统一接口,已通过1000亿+tokens的实战检验。本地部署模式带来三大核心优势:
方案一:Docker一键部署(推荐)
环境准备
- Docker Engine 20.10+
- 网络端口8787未被占用
部署步骤
- 直接拉取并运行官方镜像:
docker run --rm -p 8787:8787 portkeyai/gateway:latest
- 验证部署成功:
curl http://localhost:8787/health
返回{"status":"ok"}即表示服务正常启动
进阶配置可参考Dockerfile自定义构建,或使用docker-compose.yaml管理多容器部署
方案二:Node.js原生部署
环境要求
- Node.js 18.x+
- npm 10.9.2+
部署流程
- 克隆项目仓库:
git clone https://gitcode.com/GitHub_Trending/ga/gateway
cd gateway
- 安装依赖并构建:
npm install
npm run build
- 启动服务:
node build/start-server.js
服务将运行在http://localhost:8787,核心启动逻辑可查看start-server.ts
方案三:Replit云端部署(适合演示)
- 访问Replit部署页面,点击右上角Fork按钮
- 等待自动构建完成后点击「Run」按钮
- 获取分配的网关URL(格式类似
https://xxx.repl.co)
详细配置可参考官方教程docs/deploy-on-replit.md
快速上手使用
基础请求示例
curl http://localhost:8787/v1/chat/completions \
-H "Content-Type: application/json" \
-H "x-portkey-provider: openai" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello World"}]
}'
核心功能测试
- 智能负载均衡:配置多模型路由规则
- 自动重试机制:网络异常时自动进行指数退避重试
- 失败 fallback:参考cookbook中的降级策略
常见问题解决
端口冲突
修改默认端口:
PORT=3000 node build/start-server.js
性能优化
日志与监控
- 访问日志:
http://localhost:8787/logs - 集成监控:Telemetry插件
下一步行动
企业用户可联系获取专属部署方案,支持SOC2/ISO合规与专业技术支持
通过本指南部署的Portkey-AI Gateway已具备生产级稳定性,立即接入你的应用,体验LLM调用的丝滑体验!
【免费下载链接】gateway 项目地址: https://gitcode.com/GitHub_Trending/ga/gateway
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考





