GoForum🌐 V2EX

如何实现 Token 自由

rxc420902911 · 2026-04-12 20:45 · 0 次点赞 · 0 条回复

如何实现 Token 自由

Claude Opus 4.6 、GPT-5.4 、Gemini 2.5 Pro——这些顶级模型走 API 动辄几十美元。但如果我告诉你,不花一分钱 API 费用,就能在你自己的项目里随便调用呢?


先说结论:你能白嫖多少

在开始之前,先看一张表。以下所有模型都可以零成本获得,不需要花一分钱 API 费用:

工具 免费顶级模型 怎么拿 成本
Codex GPT-5.4 、GPT-5.3 、GPT-5.2 安装 Codex 即可 免费
Kiro Claude Sonnet 4.5 kiro.dev 注册 免费
Gemini CLI Gemini 2.5 Pro ( 100 万上下文) Google 账号登录 免费
Antigravity Gemini 3 Pro 安装 Antigravity 免费
Groq Llama 3.3 70B 、Kimi K2 注册拿 API Key 免费 14,400 次/天
Cerebras Qwen 235B 注册拿 API Key 免费 100 万 token/天
SambaNova DeepSeek V3.2 、DeepSeek R1 注册拿 API Key 免费 200K token/天
HuggingFace DeepSeek R1 、DeepSeek V3 注册即用 免费
OpenRouter 27 个免费模型 注册即用 免费

如果你还有 Claude Code 订阅($20/月,很多开发者已经有了):

工具 额外解锁 说明
Claude Code Opus 4.6 、Sonnet 4.6 订阅内无限 Sonnet
VS Code Copilot Opus 4.6 、GPT-5.4 $10/月或学生免费

把这些加在一起:GPT-5.4 + Claude Opus 4.6 + Claude Sonnet 4.5 + Gemini 2.5 Pro + DeepSeek R1 + Llama 70B,全部免费或用你已有的订阅。

问题是:这些配额分散在十几个工具里,每个只能在自己的工具内使用。

OpenRelay 做的事情就一件:把它们全部统一成一个 API 端点(http://localhost:18765),让你在任何工具、任何项目里直接调用。

它跑在你自己的电脑上,请求直连 AI 后端,不经过任何第三方服务器。


安装( 3 分钟)

去 GitHub 下载对应系统的二进制文件,不需要 Node.js:

👉 https://github.com/romgX/openrelay/releases

Windows:

# 下载 openrelay-windows-x64.exe ,双击运行
# 或者命令行:
.\openrelay-windows-x64.exe

macOS ( Intel / Apple Silicon 通用):

chmod +x openrelay-macos
xattr -d com.apple.quarantine openrelay-macos   # 解除 macOS 安全限制
./openrelay-macos

Linux:

chmod +x openrelay-linux-x64
./openrelay-linux-x64

启动后打开浏览器访问 http://localhost:18765,Web 面板会显示所有已发现的 Provider 。


面板功能一览

OpenRelay 的 Web 面板有 4 个核心标签页:

Provider 面板(首页)

左侧边栏显示所有 AI Provider ,绿灯 = 已连接,灰灯 = 未连接。

Provider 分两类:

IDE Provider (自动发现,零配置白嫖):

装了对应工具就自动接入,不用填 Key ,不用做任何事。

Provider 白嫖到的模型 获取成本
Codex GPT-5.4, GPT-5.3, GPT-5.2 ( 7 个模型) 装 Codex 就行,完全免费
Kiro Claude Sonnet 4.5, DeepSeek 3.2, Qwen3 等 8 个 注册就行,完全免费
Antigravity Gemini 3 Pro 装就行,完全免费
Gemini CLI Gemini 2.5 Pro( 100 万上下文) Google 账号登录,免费
OpenCode GPT-5 Nano, Gemini 3, MiniMax 装就行,免费
Claude Code Opus 4.6, Sonnet 4.6 ( 5 个模型) $20/月订阅(很多人已有)
VS Code Copilot Opus 4.6, GPT-5.4( 15 个模型) $10/月或学生免费
Windsurf Kimi K2.5, SWE-1.6 Windsurf 订阅

重点:Codex + Kiro + Gemini CLI 三个全免费的工具加起来,你就已经有了 GPT-5.4 + Claude Sonnet 4.5 + Gemini 2.5 Pro 。 一分钱不花,全是顶级模型。

API Provider (注册拿 Key ,全免费):

这些去官网注册一个 API Key 就能用,免费额度大到日常根本用不完。

Provider 白嫖到的模型 免费额度 速度
Groq Llama 3.3 70B, Kimi K2 14,400 次/天 最快之一 ~800 t/s
Cerebras Qwen 235B, Llama 70B 100 万 token/天 极快 ~2000 t/s
SambaNova DeepSeek V3.2, R1, Llama 405B 200K token/天
HuggingFace DeepSeek R1, V3, 100+ 模型 免费推理 中等
OpenRouter 27 个 :free 模型 各模型独立额度 看模型
Cloudflare Llama 70B, Qwen 32B Workers AI 免费 中等
DashScope DeepSeek V3.2, Qwen3 全系列 注册送额度 219 个模型

注意 Groq 的 14,400 次/天——这意味着你每分钟可以调 10 次,全天不间断写代码都用不完。

在面板里点击对应 Provider → 填入 API Key → 保存。一次填入,所有工具共用。

Work 标签页( CLI 工具一键配置)

给 Claude Code 、Aider 、Goose 、Continue 、Amp 等命令行工具配置模型来源。

选一个 Provider → 开启开关 → 重新打开终端。OpenRelay 会自动设置好环境变量,不需要你手动编辑 .zshrc.bashrc

IDE 标签页( GUI 工具代理)

给 Cursor 、Windsurf 、VS Code Copilot 等 IDE 配置外部模型来源。

选 Provider 和模型 → 点启动 → 从面板按钮打开 IDE 。

Custom 标签页(模型组)

把多个 Provider 合并成一个虚拟模型,自动故障转移。


教程一:在 Cursor 里用 Claude Opus 4.6

场景:你有 Claude Code 订阅,想在 Cursor 里也用 Opus 4.6 ,不想额外花 Anthropic API 的钱( Opus API 价格:\(15/M 输入 + \)75/M 输出)。

步骤:

  1. 启动 OpenRelay ,确认侧边栏 Claude Code 显示绿灯
  2. 进入 IDE 标签页 → Cursor 区域
  3. Provider 选 Claude Code
  4. 模型选 claude-opus-4-6
  5. 启动
  6. 从面板的启动按钮打开 Cursor(重要:直接打开 Cursor 会绕过代理)

完成。现在 Cursor 里的每次对话都在用你 Claude Code 订阅的 Opus 4.6 ,不消耗 Cursor 自己的配额。

注意:Claude Code 需要在后台保持运行状态。


教程二:在 Aider/Goose 等 CLI 工具里用 Opus

场景:想在 Aider 里用 Claude Opus 4.6 ,但不想走付费 API 。

方法一:面板一键配置(推荐)

  1. 进入 Work 标签页
  2. 找到 Aider → 选 Provider 为 Claude Code → 开启开关
  3. 重新打开终端
  4. 直接运行:
aider --model claude-opus-4-6

方法二:手动设置环境变量

Windows (PowerShell):

$env:ANTHROPIC_BASE_URL="http://localhost:18765"
$env:ANTHROPIC_API_KEY="unused"

aider --model claude-opus-4-6

macOS / Linux:

export ANTHROPIC_BASE_URL=http://localhost:18765
export ANTHROPIC_API_KEY=unused

aider --model claude-opus-4-6

Goose 、Continue 、Amp 、OpenCode 等工具同理——只要支持 Anthropic API 或 OpenAI API 格式就能接。


教程三:在你自己的代码里调用 Opus

场景:你在开发一个项目,需要调用 Claude Opus 4.6 或 GPT-5.4 ,但不想在 API 费用上烧钱。

OpenRelay 兼容 OpenAI 和 Anthropic 两种 API 格式,你的代码几乎不需要改动。

Python ( Anthropic SDK )

import anthropic

# 把 base_url 指向 OpenRelay ,Key 随便填
client = anthropic.Anthropic(
    base_url="http://localhost:18765",
    api_key="unused"
)

response = client.messages.create(
    model="claude-opus-4-6",        # 走 Claude Code 的配额
    max_tokens=4096,
    messages=[{"role": "user", "content": "用 Python 写一个快速排序"}]
)

print(response.content[0].text)

Python ( OpenAI SDK )

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:18765/v1",
    api_key="unused"
)

response = client.chat.completions.create(
    model="gpt-5.4",               # 走 Codex 的配额
    messages=[{"role": "user", "content": "用 Go 写一个 HTTP 服务器"}]
)

print(response.choices[0].message.content)

Node.js / TypeScript

import Anthropic from '@anthropic-ai/sdk';

const client = new Anthropic({
  baseURL: 'http://localhost:18765',
  apiKey: 'unused',
});

const response = await client.messages.create({
  model: 'claude-opus-4-6',
  max_tokens: 4096,
  messages: [{ role: 'user', content: '写一个 React 登录组件' }],
});

console.log(response.content[0].text);

cURL (任何语言都能用)

curl http://localhost:18765/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer unused" \
  -d '{
    "model": "claude-opus-4-6",
    "messages": [{"role": "user", "content": "Hello"}]
  }'

查看所有可用模型

curl http://localhost:18765/v1/models

返回当前所有可用的模型列表,包括每个模型来自哪个 Provider 。


教程四:指定 Provider 路由

如果多个 Provider 都有同一个模型名(比如 Claude Code 和 Anthropic API 都有 claude-opus-4-6),你可以指定走哪个 Provider:

# 指定走 Kiro 的配额
curl http://localhost:18765/kiro/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer unused" \
  -d '{"model": "claude-sonnet-4.5", "messages": [{"role": "user", "content": "Hello"}]}'

URL 格式:http://localhost:18765/{provider 名称}/v1/...

对应的环境变量写法:

# 在 Aider 里专门走 Kiro
export ANTHROPIC_BASE_URL=http://localhost:18765/kiro

教程五:配置模型组(自动故障转移)

场景:你不想手动切换 Provider ,希望 A 用完自动切 B ,B 用完自动切 C 。

Custom 标签页创建模型组:

模型组名称:coding-daily
成员:
  1. Kiro → claude-sonnet-4.5 (优先用免费的)
  2. Claude Code → claude-sonnet-4-6 ( Kiro 用完切这个)
  3. Codex → gpt-5.4 (再用完切 GPT-5 )
  4. Groq → llama-3.3-70b-versatile (兜底,速度快)

然后在你的项目里直接用这个模型组名称:

client = anthropic.Anthropic(
    base_url="http://localhost:18765",
    api_key="unused"
)

response = client.messages.create(
    model="coding-daily",    # 模型组名称
    max_tokens=4096,
    messages=[{"role": "user", "content": "重构这个函数"}]
)

OpenRelay 会按顺序尝试每个 Provider ,当前 Provider 限流或出错时自动切到下一个。你的代码不需要处理任何重试逻辑。


白嫖天花板:你到底能免费用到什么程度

截至 2026 年 4 月 10 日,OpenRelay 支持 36 个 Provider ,470+ 个模型

我们算一笔账——完全不花钱,只装免费工具 + 注册免费 API ,你能拿到什么:

零成本方案(不花一分钱)

Codex (免费)      → GPT-5.4          当前 OpenAI 最强模型
Kiro (免费)       → Claude Sonnet 4.5 Anthropic 主力模型
Gemini CLI (免费)  → Gemini 2.5 Pro    Google 最强模型,100 万上下文
Groq (免费 Key )   → Llama 3.3 70B     14,400 次/天,极速推理
Cerebras (免费 Key )→ Qwen 235B        100 万 token/天
SambaNova (免费 Key )→ DeepSeek V3.2    200K token/天
HuggingFace (免费) → DeepSeek R1      最强开源推理模型

GPT-5.4 + Sonnet 4.5 + Gemini 2.5 Pro + DeepSeek R1 + Llama 70B,全免费。

这些模型如果走官方 API 要多少钱?

模型 官方 API 价格 你的成本
GPT-5.4 ~$30/M tokens $0( Codex 免费)
Claude Sonnet 4.5 \(3/\)15 per M $0( Kiro 免费)
Gemini 2.5 Pro \(1.25/\)10 per M $0( Gemini CLI 免费)
DeepSeek R1 ¥4/M tokens $0( HuggingFace 免费)

如果你已有 Claude Code 订阅(再加 Opus )

很多开发者已经在付 Claude Code 的 $20/月。这笔钱你本来就在花,但 Opus 4.6 只能在终端用

通过 OpenRelay ,这个 Opus 可以接入 Cursor 、Aider 、你自己的项目——等于 $20 订阅的价值翻了好几倍

Opus 4.6 走 API 的价格是 \(15/M 输入 + \)75/M 输出。写半天代码轻松产生几十美元的 API 调用,现在全部用订阅覆盖。

配额叠加后的实际效果

把以上全部合在一起,我一天的免费调用量:

顶级推理:Opus 4.6 ( Claude Code )+ GPT-5.4 ( Codex )       — 无限 + 免费
日常编码:Sonnet 4.5 ( Kiro ~50 次)+ Sonnet 4.6 ( Claude Code ) — 免费
快速补全:Groq Llama 70B ( 14,400 次/天)                     — 免费
长文本:Gemini 2.5 Pro ( 100 万上下文)                        — 免费
推理链:DeepSeek R1 ( HuggingFace )                          — 免费

一天下来,各种顶级模型随便切,API 费用:$0 。

完整模型列表通过 curl http://localhost:18765/v1/models 查看。


安全说明

几个关于安全的事实:

  • 100% 本地运行 — OpenRelay 是一个跑在你电脑上的进程,没有远程服务器
  • 凭据不上传 — 所有 API Key 、Token 、Cookie 只在本地内存中使用
  • 请求直连 — 你的请求从你的电脑直接发到 AI Provider ( Anthropic/OpenAI/Google ),没有中间人
  • 不记录对话 — 日志只有错误信息和请求元数据( Provider 、模型名、状态码),不记录消息内容
  • 代码可审计 — 凭据处理代码公开可查

跟”反代/中转”完全不同。反代是多人共用一个 Key 过别人的服务器,有泄露和封号风险。OpenRelay 是你自己用自己的配额,本地直连,Provider 看到的就是一个正常用户。


常见问题

Q: IDE Provider 需要对应工具一直开着吗?

是的。比如用 Claude Code 的配额,Claude Code 进程需要在后台运行。关了就断了,OpenRelay 会自动切到其他可用 Provider 。

Q: 支持哪些操作系统?

macOS ( Intel / Apple Silicon )、Windows (x64)、Linux (x64)。

Q: 会不会被封号?

不会。你的请求从自己的电脑直连 AI Provider ,跟正常使用完全一样。这不是”反代”。

Q: 有什么限制?

OpenRelay 本身没有限制。瓶颈在于各 Provider 的免费配额上限(比如 Kiro 每天约 50 次,Groq 14,400 次/天)。配额用完了,OpenRelay 会自动切到下一个 Provider 。多注册几个免费 Provider ,配额叠加,日常使用完全够。

Q: 需要注册 OpenRelay 账号吗?

需要注册一个免费账号。Pro 版本提供更多功能(模型组、更多 Provider ),但基础功能免费可用。

Q: 跟 One-API / LiteLLM 有什么区别?

One-API 和 LiteLLM 是服务端部署方案,面向团队。OpenRelay 是个人本地工具,核心优势是自动发现 IDE 工具里的免费配额——Codex 白送的 GPT-5.4 、Kiro 白送的 Sonnet 4.5 ,这些 One-API 接不了。


总结

不装 OpenRelay 之前:你有 Claude Code 的 Opus 但只能在终端用,Codex 白送的 GPT-5.4 躺着吃灰,Kiro 的 Sonnet 4.5 只能在 Kiro 里用。

装了之后:一个端点,所有模型,任何工具。

白嫖到的顶级模型:GPT-5.4 + Claude Opus 4.6 + Sonnet 4.5 + Gemini 2.5 Pro + DeepSeek R1 + Llama 70B 。

API 费用:$0 。


GitHub:github.com/romgX/openrelay

0 条回复
添加回复
你还需要 登录 后发表回复

登录后可发帖和回复

登录 注册
主题信息
作者: rxc420902911
发布: 2026-04-12
点赞: 0
回复: 0