跳过主要内容
Cline 支持范围广泛的 AI 模型提供商,它们提供与 OpenAI API 标准兼容的 API。这允许您使用来自 OpenAI 提供商的模型,同时仍然利用熟悉的 API 界面。这包括以下提供商:
  • 通过 Ollama 和 LM Studio 等工具运行的本地模型(将在各自的部分中介绍)。
  • 云提供商,如 Perplexity、Together AI、Anyscale 等等。
  • 提供 OpenAI 兼容 API 端点的任何其他提供商
本文档重点介绍如何设置 官方 OpenAI API 的提供商(官方 OpenAI API 有自己的 专用配置页面)。

通用配置

使用 OpenAI 兼容提供商与 Cline 的关键是配置以下主要设置
  1. 基础 URL: 这是特定于提供商的 API 端点。它将不是 https://api.openai.com/v1(该 URL 适用于官方 OpenAI API)。
  2. API 密钥: 这是您从所选提供商处获得的密钥。
  3. 模型 ID: 这是您希望使用的模型的特定名称或标识符。
您可以在 Cline 设置面板中找到这些设置(点击 ⚙️ 图标)
  • API 提供商: 选择“OpenAI 兼容”。
  • 基础 URL: 输入您的所选提供商提供的基础 URL。这是关键步骤。
  • API 密钥: 输入您从提供商处获得的 API 密钥。
  • 模型: 选择或输入模型 ID。
  • 模型配置: 本节允许您自定义模型的高级参数,例如
    • 最大输出 Tokens
    • 上下文窗口大小
    • 图像支持功能
    • 计算机使用(例如,用于具有工具/函数调用的模型)
    • 输入价格(每 token/百万 token)
    • 输出价格(每 token/百万 token)

支持的模型(针对 OpenAI 原生端点)

虽然“OpenAI 兼容”提供商类型允许连接到各种端点,但如果您直接连接到官方 OpenAI API(或完全镜像它的端点),Cline 会根据其源代码中的 openAiNativeModels 定义识别以下模型 ID
  • o3-mini
  • o3-mini-high
  • o3-mini-low
  • o1
  • o1-preview
  • o1-mini
  • gpt-4o
  • gpt-4o-mini
注意: 如果您使用的是不同的 OpenAI 兼容提供商(例如 Together AI、Anyscale 等),则可用的模型 ID 将有所不同。请始终参考您的特定提供商的文档,以获取其支持的模型名称和任何独特的配置详细信息。

Cline 中的 v0 (Vercel SDK)

  • 对于使用 v0 的开发人员,他们的 AI SDK 文档 提供了有关集成各种模型的宝贵见解和示例,其中许多模型与 OpenAI 兼容。当使用 Cline 与部署在 Vercel 上或与 Vercel 集成的服务时,这对于理解如何构建调用和管理配置非常有用。
  • v0 可以与 OpenAI 兼容提供商一起用于 Cline。
  • 快速入门

    1. 选择 OpenAI 兼容提供商后,将基础 URL 设置为 https://api.v0.dev/v1
    1. 粘贴您的 v0 API 密钥
    1. 设置模型 ID:v0-1.0-md
    1. 点击验证以确认连接。

故障排除

  • “API 密钥无效”: 仔细检查您是否正确输入了 API 密钥,并且它属于正确的提供商。
  • “未找到模型”: 确保您使用的是所选提供商的有效模型 ID,并且该模型在指定的基础 URL 上可用。
  • 连接错误: 验证基础 URL 是否正确,您的提供商的 API 是否可从您的机器访问,并且没有防火墙或网络问题。
  • 意外结果: 如果您得到意外的输出,请尝试更换模型或仔细检查所有配置参数。
通过使用 OpenAI 兼容提供商,您可以利用 Cline 的灵活性和更广泛的 AI 模型。请记住始终查阅提供商的文档以获取最准确和最新的信息。