Skip to content

CookSleep/gpt_image_playground

Repository files navigation

🎨 GPT Image Playground

GitHub Repo stars GitHub forks License React TypeScript

基于 OpenAI gpt-image-2 API 的图片生成与编辑工具

提供简洁精美的 Web UI,支持 OpenAI / OpenAI 兼容接口、fal.ai 与可导入的自定义 HTTP 服务商。
支持文本生图、参考图与遮罩编辑,数据纯本地化存储,带来流畅的历史记录与参数管理体验。


Vercel 在线体验     GitHub Pages 在线体验


💡 提示:若需调用非 HTTPS 的内网或本地 HTTP API,请使用 GitHub Pages 版本或自行部署,Vercel 部署的体验版绑定的 .dev 域名因安全策略通常要求接口必须为 HTTPS。


📸 界面预览

点击展开截图展示
桌面端主界面
桌面端主界面

任务详情与实际参数
任务详情与实际参数

桌面端批量选择
桌面端批量选择

移动端主界面
移动端主界面

移动端侧滑多选
移动端侧滑多选

✨ 核心特性

🎨 强大的图像生成与编辑

  • 双模接口支持:自由切换使用常规 Images API (/v1/images) 或 Responses API (/v1/responses)。
  • 参考图与遮罩:支持上传最多 16 张参考图(支持剪贴板和拖拽)。内置可视化遮罩编辑器,自动预处理以符合官方分辨率限制。
  • 批量与迭代:支持单次多图生成;一键将满意结果转为参考图,无缝开启下一轮修改。

⚙️ 精细化参数追踪

  • 智能尺寸控制:提供 1K/2K/4K 快速预设,自定义宽高时会自动规整至模型安全范围(16 的倍数、总像素校验等)。
  • 实际参数对比:自动提取 API 响应中真实生效的尺寸、质量、耗时以及模型改写后的提示词,与你的请求参数高亮对比。支持定制化的参数列表横向平滑滚动体验。

📁 高效历史管理 (纯本地)

  • 瀑布流与画廊:历史任务自动保存,支持按状态过滤、全屏大图预览与快捷下载。
  • 快捷批量操作:桌面端支持鼠标拖拽框选、Ctrl/⌘ 连选,移动端支持顺滑侧滑多选;轻松实现批量收藏与清理。
  • 极致性能与隐私:所有记录与图片均存放在浏览器 IndexedDB 中(采用 SHA-256 去重压缩),不经过任何第三方服务器。支持一键打包导出 ZIP 备份。

🔌 多配置与服务商增强

  • 多配置管理:支持创建并保存多个 API 配置(包含服务商、API Key、模型等),按需快速切换;支持一键复制当前配置到列表底部,并通过拖拽对配置列表与服务商列表进行自定义排序。
  • 多服务商接入:内置 OpenAI 兼容接口(含 Images APIResponses API)、fal.ai(支持队列),并支持通过 JSON 导入自定义 HTTP 服务商配置(兼容同步/异步任务)。
  • API 代理:OpenAI 兼容接口与 fal.ai 均可配置自定义代理。其中 OpenAI 兼容接口可开启同源 /api-proxy/ 代理,交由 Docker 或本地开发环境转发至真实 API,绕开浏览器 CORS 限制。
  • Codex CLI 兼容模式:对上游为 Codex CLI 的 API,开启后应用 Codex CLI 实际支持的参数,并将多图生成拆分为并发单图。
  • 提示词防改写:Responses API 会始终在请求文本前加入强制指令防止提示词被改写;开启 Codex CLI 模式后,Images API 也会获得同等保护。
  • 智能诊断提示:当检测到接口异常改写行为或缺少常规参数时,自动提示开启相应的兼容模式。
  • 习惯配置:支持设置提交后清空输入、重启后保留历史输入、临时复用历史任务 API 配置等。

🚀 部署与使用

支持多种部署与开发方式。无论使用哪种方式,你都可以预设默认的 API 节点。

▲ 方式一:Vercel 一键部署 (推荐)

Deploy with Vercel

点击上方按钮导入仓库即可,Vercel 会自动执行构建并部署静态文件。

配置默认 API URL:在 Vercel 项目的 Settings → Environment Variables 中添加 VITE_DEFAULT_API_URL(如 https://api.openai.com/v1),然后重新部署即可生效。

绑定自定义域名 (国内直连):Vercel 默认分配的 .vercel.app 域名在国内通常无法直接访问。如果你希望在国内直连访问,请在 Vercel 项目的 Settings → Domains 中绑定你自己的域名。

配置自动更新

本项目已在 vercel.json 中关闭了默认的自动部署。若需在同步 GitHub 上游代码后自动更新 Vercel 部署:

  1. 在 Vercel 项目设置 Settings -> GitDeploy Hooks 中创建一个名为 Release 的 Hook(Branch 填 main)并复制生成的 URL。
  2. 在你 Fork 的 GitHub 仓库设置 Settings -> Secrets and variables -> Actions 中,新建 Secret VERCEL_DEPLOY_HOOK,填入刚才的 URL。

此后,每次在 GitHub 点击 Sync fork 同步上游,都会自动触发 Vercel 构建部署最新版。

☁️ 方式二:Cloudflare Workers 部署

项目已内置 Wrangler 配置,可将 Vite 构建产物作为 Cloudflare Workers 静态资源部署。

1. 登录 Cloudflare

npx wrangler login

2. 部署到 Workers

npm run deploy:cf

部署脚本会先执行 npm run build,再通过 wrangler deploy 上传 dist/ 目录。

配置默认 API URL:Cloudflare Workers 的环境变量不会自动改写已经构建好的静态文件。若需预设默认 API 地址,请在构建前设置 VITE_DEFAULT_API_URL 后再部署。

VITE_DEFAULT_API_URL=https://api.openai.com/v1 npm run deploy:cf

PowerShell 示例:

$env:VITE_DEFAULT_API_URL="https://api.openai.com/v1"; npm run deploy:cf
🐳 方式三:Docker 部署

官方镜像已发布至 GitHub Container Registry。Docker 部署支持在运行时注入默认配置。

环境变量说明:

  • DEFAULT_API_URL:设置页面上默认显示的 API 地址。
  • API_PROXY_URL:配置内置代理实际转发到的目标 API 地址(仅开启代理时有效)。
  • ENABLE_API_PROXY:设为 true 开启容器内置 Nginx 同源代理,用于解决浏览器跨域(CORS)限制。开启后,前端 API 代理 开关默认开启,浏览器会请求同源的 /api-proxy/,再由 Nginx 转发至 API_PROXY_URL;用户仍可在设置中手动关闭。
  • LOCK_API_PROXY:设为 true 时,在 ENABLE_API_PROXY=true 的前提下将前端 API 代理 开关强制锁定为开启,用户无法关闭。
  • HOST / PORT:指定容器内 Nginx 监听的地址和端口(默认 0.0.0.0:80)。

⚠️ 安全警告:开启 API 代理后,任何人都能将你的服务器作为代理来请求目标 API。建议仅在有访问控制(如 IP 白名单)或本地网络中开启。

💡 兼容迁移:旧版本中的 API_URL 已拆分为 DEFAULT_API_URLAPI_PROXY_URL。容器启动时会自动将遗留的 API_URL 作为两个新变量的兜底值,实现无缝兼容。建议更新配置文件,逐步迁移至新变量。

1. Docker CLI 示例

docker run -d -p 8080:80 \
  -e DEFAULT_API_URL=https://api.openai.com/v1 \
  -e ENABLE_API_PROXY=true \
  -e LOCK_API_PROXY=true \
  -e API_PROXY_URL=https://api.openai.com/v1 \
  ghcr.io/cooksleep/gpt_image_playground:latest

(注:使用 host 网络时加 --network host,修改容器监听端口使用 -e PORT=28080)

2. Docker Compose 示例

services:
  gpt-image-playground:
    image: ghcr.io/cooksleep/gpt_image_playground:latest
    environment:
      - DEFAULT_API_URL=https://api.openai.com/v1
    ports:
      - "8080:80"
    restart: unless-stopped

更新说明:

使用 latest 标签时,重新拉取镜像并重启即可更新(如 docker compose pull && docker compose up -d)。若需固定版本可使用官方提供的版本号标签(如 0.2.x)。

💻 方式四:本地开发与静态构建

1. 环境准备与启动

你可以在项目根目录新建 .env.local 文件配置默认 API URL(如 VITE_DEFAULT_API_URL=https://api.openai.com/v1)。然后安装依赖并启动:

npm install
npm run dev

2. 本地开发跨域代理 (可选)

如果在本地开发时遇到浏览器的 CORS 限制,可开启本地代理转发:

cp dev-proxy.config.example.json dev-proxy.config.json

修改 dev-proxy.config.json,将 target 设置为真实的图片接口地址。重启开发服务器后,在页面设置中开启 API 代理 即可(请求将被转发如 http://localhost:5173/api-proxy/... -> target/...)。此功能仅在 npm run dev 阶段生效,不会影响打包产物。

3. 本地故障模拟 API (可选)

如果需要复现图片 URL 跨域、接口返回结构异常、原始响应查看等问题,可启动内置模拟服务:

npm run mock:api

使用方式见 本地故障模拟 API

4. 构建静态产物

npm run build

构建输出的文件位于 dist/ 目录下,可将其部署至任何静态文件服务器(如普通 Nginx、GitHub Pages、Netlify 等)。


🛠️ URL 传参快速填充

应用支持通过 URL 查询参数快速填入配置,非常适合创建书签或集成分享。根据你的服务商类型,选择对应的方式:

方式一:标准 OpenAI 兼容服务商 直接使用简短的查询参数配置:

  • ?apiUrl=https://你的代理地址.com
  • ?apiKey=sk-xxxx
  • ?apiMode=images?apiMode=responses(未传时默认为 images
  • ?model=gpt-image-2(未传时按 apiMode 使用默认模型)
  • ?codexCli=true(开启 Codex CLI 兼容模式)

例如,集成到 New API 的聊天系统:

https://gpt-image-playground.cooksleep.dev?apiUrl={address}&apiKey={key}&model={model}
https://cooksleep.github.io/gpt_image_playground?apiUrl={address}&apiKey={key}&model={model}

方式二:自定义格式服务商 如果需要导入自定义格式的 API 配置,请使用 settings 参数并传入 URL 编码后的完整 JSON:

  • ?settings={URL编码后的JSON}(只读取 customProvidersprofiles 列表)

推荐先在项目内完成配置生成与导入:

设置 - API 配置 - 服务商类型 - 创建自定义服务商 - AI 一键生成与导入

完成后可在 API 配置 - 当前配置 使用右侧快捷按钮:

  • 链接按钮:复制可导入配置的 URL。复制时可选择不包含 API Key,并使用 {address}{key}{model} 等变量,便于在 New API 等平台中集成分享。
  • 复制按钮:将当前配置复制一份到配置列表底部,新配置名称会追加“(复制)”。

JSON 结构示例:

{
  "customProviders": [
    {
      "id": "custom-example-task",
      "name": "示例异步任务服务商",
      "submit": {
        "path": "images/generations",
        "method": "POST",
        "contentType": "json",
        "body": {
          "model": "$profile.model",
          "prompt": "$prompt",
          "size": "$params.size",
          "quality": "$params.quality",
          "output_format": "$params.output_format",
          "output_compression": "$params.output_compression",
          "n": "$params.n",
          "image_urls": "$inputImages.dataUrls"
        },
        "taskIdPath": "data.0.task_id"
      },
      "poll": {
        "path": "tasks/{task_id}",
        "method": "GET",
        "intervalSeconds": 5,
        "statusPath": "data.status",
        "successValues": ["completed"],
        "failureValues": ["failed", "cancelled"],
        "errorPath": "data.error.message",
        "result": {
          "imageUrlPaths": ["data.result.images.*.url.*"],
          "b64JsonPaths": []
        }
      }
    }
  ],
  "profiles": [
    {
      "name": "示例异步任务服务商",
      "provider": "custom-example-task",
      "baseUrl": "https://api.example.com/v1",
      "model": "example-image-model",
      "apiMode": "images"
    }
  ]
}

第三方服务商可以参考 自定义服务商 LLM 提示词,让 LLM 根据自己的 API 文档生成可导入的完整配置。导入后只需要在设置里补充 API Key。


💻 技术栈


React 19 TypeScript Vite Tailwind CSS 3 Zustand

📄 许可证 & 致谢

本项目基于 MIT License 开源。

特别致谢:LINUX DO

💜 赞助支持

如果这个项目对你有帮助,欢迎通过爱发电赞助支持,你的每一份鼓励都是持续更新的动力!



爱发电赞助

⭐ Star History