Prompt Optimizer AI 提示词智能优化

Prompt Optimizer AI 提示词智能优化!

上地址: prompt Optimizer 地址https://github.com/linshenkx/prompt-optimizer

截图示例:
在这里插入图片描述

项目说明:

Prompt Optimizer (提示词优化器) 🚀
📖 项目简介

Prompt Optimizer是一个强大的AI提示词优化工具,帮助你编写更好的AI提示词,提升AI输出质量。支持Web应用和Chrome插件两种使用方式。

🎥 功能演示

功能演示
✨ 核心特性

🎯 智能优化:一键优化提示词,支持多轮迭代改进,提升AI回复准确度
🔄 对比测试:支持原始提示词和优化后提示词的实时对比,直观展示优化效果
🔄 多模型集成:支持OpenAI、Gemini、DeepSeek等主流AI模型,满足不同需求
🔒 安全架构:纯客户端处理,数据直接与AI服务商交互,不经过中间服务器
💾 隐私保护:本地加密存储历史记录和API密钥,确保数据安全
📱 多端支持:同时提供Web应用和Chrome插件两种使用方式
🎨 用户体验:简洁直观的界面设计,响应式布局和流畅交互动效果
🌐 跨域支持:Vercel部署时支持使用Edge Runtime代理解决跨域问题(可能会触发部分厂商风控)
快速开始

1. 使用在线版本(推荐)

直接访问:https://prompt.always200.com

项目是纯前端项目,所有数据只存储在浏览器本地,不会上传至任何服务器,因此直接使用在线版本也是安全可靠的

***##备注:***

在线优化提示词工具配置:
一  获取大模型服务
1 打开链接 [大模型服务](https://cloud.siliconflow.cn/i/3Qy2uyoV)
2 配置大模型服务
![配置图解](https://i-blog.csdnimg.cn/direct/e0661eaa0b524e9999f0979c5178740c.jpeg#pic_center)
3 配置优化工具
![优化工具配置示例](https://i-blog.csdnimg.cn/direct/f061bdf68559433ab48e5d458957b03e.jpeg#pic_center)
4 优化器工具操作示例
![操作示例](https://i-blog.csdnimg.cn/direct/8bbc4ee8417046c1afa89e90cdd61720.jpeg#pic_center)

2. Vercel部署

方式1:一键部署到自己的Vercel: 

方式2: Fork项目后在Vercel中导入(推荐):

先Fork项目到自己的GitHub
然后在Vercel中导入该项目
可跟踪源项目更新,便于同步最新功能和修复
配置环境变量:
ACCESS_PASSWORD:设置访问密码,启用访问限制
VITE_OPENAI_API_KEY等:配置各AI服务商的API密钥
更多详细的部署步骤和注意事项,请查看:

Vercel部署指南
3. 安装Chrome插件

从Chrome商店安装(由于审批较慢,可能不是最新的):Chrome商店地址
点击图标即可打开提示词优化器
4. Docker部署

# 运行容器(默认配置)
docker run -d -p 80:80 --restart unless-stopped --name prompt-optimizer linshen/prompt-optimizer

# 运行容器(配置API密钥和访问密码)
docker run -d -p 80:80 \
  -e VITE_OPENAI_API_KEY=your_key \
  -e ACCESS_USERNAME=your_username \  # 可选,默认为"admin"
  -e ACCESS_PASSWORD=your_password \  # 设置访问密码
  --restart unless-stopped \
  --name prompt-optimizer \
  linshen/prompt-optimizer
  
5. Docker Compose部署

# 1. 克隆仓库
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer

# 2. 可选:创建.env文件配置API密钥和访问认证
cat > .env << EOF
# API密钥配置
VITE_OPENAI_API_KEY=your_openai_api_key
VITE_GEMINI_API_KEY=your_gemini_api_key
VITE_DEEPSEEK_API_KEY=your_deepseek_api_key

# Basic认证配置(密码保护)
ACCESS_USERNAME=your_username  # 可选,默认为"admin"
ACCESS_PASSWORD=your_password  # 设置访问密码
EOF

# 3. 启动服务
docker compose up -d

# 4. 查看日志
docker compose logs -f
你还可以直接编辑docker-compose.yml文件,自定义配置:

services:
  prompt-optimizer:
    image: linshen/prompt-optimizer:latest
    container_name: prompt-optimizer
    restart: unless-stopped
    ports:
      - "8081:80"  # 修改端口映射
    environment:
      - VITE_OPENAI_API_KEY=your_key_here  # 直接在配置中设置密钥
⚙️ API密钥配置

方式一:通过界面配置(推荐)

点击界面右上角的"⚙️设置"按钮
选择"模型管理"选项卡
点击需要配置的模型(如OpenAI、Gemini、DeepSeek等)
在弹出的配置框中输入对应的API密钥
点击"保存"即可
支持的模型:

OpenAI (gpt-3.5-turbo, gpt-4)
Gemini (gemini-2.0-flash)
DeepSeek (DeepSeek-V3)
自定义API(OpenAI兼容接口)
方式二:通过环境变量配置

Docker部署时通过 -e 参数配置环境变量:

-e VITE_OPENAI_API_KEY=your_key
-e VITE_GEMINI_API_KEY=your_key
-e VITE_DEEPSEEK_API_KEY=your_key
-e VITE_SILICONFLOW_API_KEY=your_key
-e VITE_CUSTOM_API_KEY=your_custom_api_key
-e VITE_CUSTOM_API_BASE_URL=your_custom_api_base_url
-e VITE_CUSTOM_API_MODEL=your_custom_model_name 
本地开发

详细文档可查看 开发文档

# 1. 克隆项目
git clone https://github.com/linshenkx/prompt-optimizer.git
cd prompt-optimizer

# 2. 安装依赖
pnpm install

# 3. 启动开发服务
pnpm dev               # 主开发命令:构建core/ui并运行web应用
pnpm dev:web          # 仅运行web应用
pnpm dev:fresh        # 完整重置并重新启动开发环境
🗺️ 开发路线

基础功能开发
Web应用发布
Chrome插件发布
自定义模型支持
多模型支持优化
国际化支持
详细的项目状态可查看 项目状态文档

📖 相关文档

文档索引 - 所有文档的索引
技术开发指南 - 技术栈和开发规范
项目结构 - 详细的项目结构说明
项目状态 - 当前进度和计划
产品需求 - 产品需求文档
Vercel部署指南 - Vercel部署详细说明
Star History

 Star History Chart
常见问题

API连接问题

Q1: 为什么配置好API密钥后仍然无法连接到模型服务?

A: 大多数连接失败是由跨域问题(CORS)导致的。由于本项目是纯前端应用,浏览器出于安全考虑会阻止直接访问不同源的API服务。模型服务如未正确配置CORS策略,会拒绝来自浏览器的直接请求。

Q2: 如何解决本地Ollama的连接问题?

A: Ollama完全支持OpenAI标准接口,只需配置正确的跨域策略:

设置环境变量 OLLAMA_ORIGINS=* 允许任意来源的请求
如仍有问题,设置 OLLAMA_HOST=0.0.0.0:11434 监听任意IP地址
Q3: 如何解决商业API(如Nvidia的DS API、字节跳动的火山API)的跨域问题?

A: 这些平台通常有严格的跨域限制,推荐以下解决方案:

使用Vercel代理(便捷方案)

使用在线版本:prompt.always200.com
或自行部署到Vercel平台
在模型设置中勾选"使用Vercel代理"选项
请求流向:浏览器→Vercel→模型服务提供商
详细步骤请参考 Vercel部署指南
使用自部署的API中转服务(可靠方案)

部署如OneAPI等开源API聚合/代理工具
在设置中配置为自定义API端点
请求流向:浏览器→中转服务→模型服务提供商
Q4: Vercel代理有什么缺点或风险?

A: 使用Vercel代理可能会触发某些模型服务提供商的风控机制。部分厂商可能会将来自Vercel的请求判定为代理行为,从而限制或拒绝服务。如遇此问题,建议使用自部署的中转服务。

🤝 参与贡献

Fork 本仓库
创建特性分支 (git checkout -b feature/AmazingFeature)
提交更改 (git commit -m '添加某个特性')
推送到分支 (git push origin feature/AmazingFeature)
提交 Pull Request
提示:使用cursor工具开发时,建议在提交前:

使用"code_review"规则进行代码审查
按照审查报告格式检查:
变更的整体一致性
代码质量和实现方式
测试覆盖情况
文档完善程度
根据审查结果进行优化后再提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值