Prompt Optimizer AI 提示词智能优化!
上地址: prompt Optimizer 地址https://github.com/linshenkx/prompt-optimizer
截图示例:

项目说明:
Prompt Optimizer (提示词优化器) 🚀
📖 项目简介
Prompt Optimizer是一个强大的AI提示词优化工具,帮助你编写更好的AI提示词,提升AI输出质量。支持Web应用和Chrome插件两种使用方式。
🎥 功能演示
功能演示
✨ 核心特性
🎯 智能优化:一键优化提示词,支持多轮迭代改进,提升AI回复准确度
🔄 对比测试:支持原始提示词和优化后提示词的实时对比,直观展示优化效果
🔄 多模型集成:支持OpenAI、Gemini、DeepSeek等主流AI模型,满足不同需求
🔒 安全架构:纯客户端处理,数据直接与AI服务商交互,不经过中间服务器
💾 隐私保护:本地加密存储历史记录和API密钥,确保数据安全
📱 多端支持:同时提供Web应用和Chrome插件两种使用方式
🎨 用户体验:简洁直观的界面设计,响应式布局和流畅交互动效果
🌐 跨域支持:Vercel部署时支持使用Edge Runtime代理解决跨域问题(可能会触发部分厂商风控)
快速开始
1. 使用在线版本(推荐)
直接访问:https://prompt.always200.com
项目是纯前端项目,所有数据只存储在浏览器本地,不会上传至任何服务器,因此直接使用在线版本也是安全可靠的
***##备注:***
在线优化提示词工具配置:
一 获取大模型服务
1 打开链接 [大模型服务](https://cloud.siliconflow.cn/i/3Qy2uyoV)
2 配置大模型服务

3 配置优化工具

4 优化器工具操作示例

2. Vercel部署
方式1:一键部署到自己的Vercel:
方式2: Fork项目后在Vercel中导入(推荐):
先Fork项目到自己的GitHub
然后在Vercel中导入该项目
可跟踪源项目更新,便于同步最新功能和修复
配置环境变量:
ACCESS_PASSWORD:设置访问密码,启用访问限制
VITE_OPENAI_API_KEY等:配置各AI服务商的API密钥
更多详细的部署步骤和注意事项,请查看:
Vercel部署指南
3. 安装Chrome插件
从Chrome商店安装(由于审批较慢,可能不是最新的):Chrome商店地址
点击图标即可打开提示词优化器
4. Docker部署
# 运行容器(默认配置)
docker run -d -p 80:80 --restart unless-stopped --name prompt-optimizer linshen/prompt-optimizer
# 运行容器(配置API密钥和访问密码)
docker run -d -p 80:80 \
-e VITE_OPENAI_API_KEY=your_key \
-e ACCESS_USERNAME=your_username \ # 可选,默认为"admin"
-e ACCESS_PASSWORD=your_password \ # 设置访问密码
--restart unless-stopped \
--name prompt-optimizer \
linshen/prompt-optimizer
5. Docker Compose部署
# 1. 克隆仓库
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer
# 2. 可选:创建.env文件配置API密钥和访问认证
cat > .env << EOF
# API密钥配置
VITE_OPENAI_API_KEY=your_openai_api_key
VITE_GEMINI_API_KEY=your_gemini_api_key
VITE_DEEPSEEK_API_KEY=your_deepseek_api_key
# Basic认证配置(密码保护)
ACCESS_USERNAME=your_username # 可选,默认为"admin"
ACCESS_PASSWORD=your_password # 设置访问密码
EOF
# 3. 启动服务
docker compose up -d
# 4. 查看日志
docker compose logs -f
你还可以直接编辑docker-compose.yml文件,自定义配置:
services:
prompt-optimizer:
image: linshen/prompt-optimizer:latest
container_name: prompt-optimizer
restart: unless-stopped
ports:
- "8081:80" # 修改端口映射
environment:
- VITE_OPENAI_API_KEY=your_key_here # 直接在配置中设置密钥
⚙️ API密钥配置
方式一:通过界面配置(推荐)
点击界面右上角的"⚙️设置"按钮
选择"模型管理"选项卡
点击需要配置的模型(如OpenAI、Gemini、DeepSeek等)
在弹出的配置框中输入对应的API密钥
点击"保存"即可
支持的模型:
OpenAI (gpt-3.5-turbo, gpt-4)
Gemini (gemini-2.0-flash)
DeepSeek (DeepSeek-V3)
自定义API(OpenAI兼容接口)
方式二:通过环境变量配置
Docker部署时通过 -e 参数配置环境变量:
-e VITE_OPENAI_API_KEY=your_key
-e VITE_GEMINI_API_KEY=your_key
-e VITE_DEEPSEEK_API_KEY=your_key
-e VITE_SILICONFLOW_API_KEY=your_key
-e VITE_CUSTOM_API_KEY=your_custom_api_key
-e VITE_CUSTOM_API_BASE_URL=your_custom_api_base_url
-e VITE_CUSTOM_API_MODEL=your_custom_model_name
本地开发
详细文档可查看 开发文档
# 1. 克隆项目
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer
# 2. 安装依赖
pnpm install
# 3. 启动开发服务
pnpm dev # 主开发命令:构建core/ui并运行web应用
pnpm dev:web # 仅运行web应用
pnpm dev:fresh # 完整重置并重新启动开发环境
🗺️ 开发路线
基础功能开发
Web应用发布
Chrome插件发布
自定义模型支持
多模型支持优化
国际化支持
详细的项目状态可查看 项目状态文档
📖 相关文档
文档索引 - 所有文档的索引
技术开发指南 - 技术栈和开发规范
项目结构 - 详细的项目结构说明
项目状态 - 当前进度和计划
产品需求 - 产品需求文档
Vercel部署指南 - Vercel部署详细说明
Star History
Star History Chart
常见问题
API连接问题
Q1: 为什么配置好API密钥后仍然无法连接到模型服务?
A: 大多数连接失败是由跨域问题(CORS)导致的。由于本项目是纯前端应用,浏览器出于安全考虑会阻止直接访问不同源的API服务。模型服务如未正确配置CORS策略,会拒绝来自浏览器的直接请求。
Q2: 如何解决本地Ollama的连接问题?
A: Ollama完全支持OpenAI标准接口,只需配置正确的跨域策略:
设置环境变量 OLLAMA_ORIGINS=* 允许任意来源的请求
如仍有问题,设置 OLLAMA_HOST=0.0.0.0:11434 监听任意IP地址
Q3: 如何解决商业API(如Nvidia的DS API、字节跳动的火山API)的跨域问题?
A: 这些平台通常有严格的跨域限制,推荐以下解决方案:
使用Vercel代理(便捷方案)
使用在线版本:prompt.always200.com
或自行部署到Vercel平台
在模型设置中勾选"使用Vercel代理"选项
请求流向:浏览器→Vercel→模型服务提供商
详细步骤请参考 Vercel部署指南
使用自部署的API中转服务(可靠方案)
部署如OneAPI等开源API聚合/代理工具
在设置中配置为自定义API端点
请求流向:浏览器→中转服务→模型服务提供商
Q4: Vercel代理有什么缺点或风险?
A: 使用Vercel代理可能会触发某些模型服务提供商的风控机制。部分厂商可能会将来自Vercel的请求判定为代理行为,从而限制或拒绝服务。如遇此问题,建议使用自部署的中转服务。
🤝 参与贡献
Fork 本仓库
创建特性分支 (git checkout -b feature/AmazingFeature)
提交更改 (git commit -m '添加某个特性')
推送到分支 (git push origin feature/AmazingFeature)
提交 Pull Request
提示:使用cursor工具开发时,建议在提交前:
使用"code_review"规则进行代码审查
按照审查报告格式检查:
变更的整体一致性
代码质量和实现方式
测试覆盖情况
文档完善程度
根据审查结果进行优化后再提交
2858

被折叠的 条评论
为什么被折叠?



