跳过主要内容
Vercel AI 网关为您提供了一个单一 API,可访问来自多个提供商的模型。您可以通过模型 ID 进行切换,而无需更换 SDK 或管理多个密钥。Cline 直接集成,您可以在下拉菜单中选择一个网关模型,像使用任何其他提供商一样使用它,并在流中查看令牌和缓存使用情况。 有用链接:

您将获得

  • 一个密钥即可访问 100 多个模型的一个端点
  • 自动重试和回退,可在仪表板上配置
  • 支出监控,包括按模型的请求数、令牌计数、缓存使用情况、延迟百分位数和成本
  • OpenAI 兼容接口,现有客户端可用

获取 API 密钥

  1. 登录 https://vercel.com
  2. 仪表板 → AI 网关 → API 密钥 → 创建密钥
  3. 复制密钥
有关身份验证和 OIDC 选项的更多信息,请参阅 https://vercel.com/docs/ai-gateway/authentication

在 Cline 中配置

  1. 打开 Cline 设置
  2. 选择 Vercel AI 网关 作为 API 提供商
  3. 粘贴您的网关 API 密钥
  4. 从列表中选择一个模型。Cline 会自动获取目录。您也可以粘贴确切的 ID
备注
  • 模型 ID 通常遵循 provider/model 格式。从目录中复制确切的 ID
    示例
    • openai/gpt-5
    • anthropic/claude-sonnet-4
    • google/gemini-2.5-pro
    • groq/llama-3.1-70b
    • deepseek/deepseek-v3

可操作的可观测性

Vercel AI Gateway observability with requests by model, tokens, cache, latency, and cost.
要关注的指标
  • 按模型的请求数 - 确认路由和采用情况
  • 令牌 - 输入与输出,包括推理(如果公开)
  • 缓存 - 缓存输入和缓存创建令牌
  • 延迟 - p75 持续时间和 p75 首个令牌时间
  • 成本 - 按项目和按模型
用于
  • 比较模型更改前后的每次请求输出令牌数
  • 通过跟踪缓存读取和写入创建来验证缓存策略
  • 在实验期间捕获 TTFT 回归
  • 使预算与实际使用情况保持一致

支持的模型

网关支持大量且不断变化的模型。Cline 从网关 API 获取列表并将其本地缓存。有关当前目录,请参阅 https://vercel.com/ai-gateway/models

提示

为每个环境(开发、测试、生产)使用单独的网关密钥。它使仪表板保持整洁,并隔离预算。
定价按提供商的标价直通。自带密钥(Bring-your-own key)没有加价。您仍然需要支付提供商和处理费用。
Vercel 不添加速率限制。上游提供商可能会。新账户在首次付款前每 30 天获得 $5 信用额度。

故障排除

  • 401 - 将网关密钥发送到网关端点,而不是上游 URL
  • 404 模型 - 从 Vercel 目录中复制确切的 ID
  • 首个令牌缓慢 - 在仪表板中检查 p75 TTFT,并尝试针对流式传输优化的模型
  • 成本激增 - 在仪表板中按模型细分,并限制或路由流量

灵感

  • 多模型评估 - 只需在 Cline 中交换模型 ID,然后比较延迟和输出令牌
  • 渐进式发布 - 在仪表板中将一小部分流量路由到新模型,并根据指标逐步增加
  • 预算强制执行 - 设置按项目限制,无需更改代码
  • OpenAI 兼容设置: /provider-config/openai-compatible
  • 模型选择指南: /getting-started/model-selection-guide
  • 理解上下文管理: /getting-started/understanding-context-management