- 团队仪表板: https://vercel.com/d?to=%2F%5Bteam%5D%2F%7E%2Fai
- 模型目录: https://vercel.com/ai-gateway/models
- 文档: https://vercel.com/docs/ai-gateway
您将获得
- 一个密钥即可访问 100 多个模型的一个端点
- 自动重试和回退,可在仪表板上配置
- 支出监控,包括按模型的请求数、令牌计数、缓存使用情况、延迟百分位数和成本
- OpenAI 兼容接口,现有客户端可用
获取 API 密钥
- 登录 https://vercel.com
- 仪表板 → AI 网关 → API 密钥 → 创建密钥
- 复制密钥
在 Cline 中配置
- 打开 Cline 设置
- 选择 Vercel AI 网关 作为 API 提供商
- 粘贴您的网关 API 密钥
- 从列表中选择一个模型。Cline 会自动获取目录。您也可以粘贴确切的 ID
- 模型 ID 通常遵循
provider/model格式。从目录中复制确切的 ID
示例openai/gpt-5anthropic/claude-sonnet-4google/gemini-2.5-progroq/llama-3.1-70bdeepseek/deepseek-v3
可操作的可观测性
- 按模型的请求数 - 确认路由和采用情况
- 令牌 - 输入与输出,包括推理(如果公开)
- 缓存 - 缓存输入和缓存创建令牌
- 延迟 - p75 持续时间和 p75 首个令牌时间
- 成本 - 按项目和按模型
- 比较模型更改前后的每次请求输出令牌数
- 通过跟踪缓存读取和写入创建来验证缓存策略
- 在实验期间捕获 TTFT 回归
- 使预算与实际使用情况保持一致
支持的模型
网关支持大量且不断变化的模型。Cline 从网关 API 获取列表并将其本地缓存。有关当前目录,请参阅 https://vercel.com/ai-gateway/models提示
定价按提供商的标价直通。自带密钥(Bring-your-own key)没有加价。您仍然需要支付提供商和处理费用。
Vercel 不添加速率限制。上游提供商可能会。新账户在首次付款前每 30 天获得 $5 信用额度。
故障排除
- 401 - 将网关密钥发送到网关端点,而不是上游 URL
- 404 模型 - 从 Vercel 目录中复制确切的 ID
- 首个令牌缓慢 - 在仪表板中检查 p75 TTFT,并尝试针对流式传输优化的模型
- 成本激增 - 在仪表板中按模型细分,并限制或路由流量
灵感
- 多模型评估 - 只需在 Cline 中交换模型 ID,然后比较延迟和输出令牌
- 渐进式发布 - 在仪表板中将一小部分流量路由到新模型,并根据指标逐步增加
- 预算强制执行 - 设置按项目限制,无需更改代码
交叉链接
- OpenAI 兼容设置: /provider-config/openai-compatible
- 模型选择指南: /getting-started/model-selection-guide
- 理解上下文管理: /getting-started/understanding-context-management

