跳过主要内容
配置路径:自托管本指南涵盖自托管部署的自定义提供商配置。
配置 Cline 以使用任何 OpenAI 兼容的 API 提供商,包括 Azure OpenAI、自托管推理服务器和其他第三方服务。

什么是自定义提供商?

自定义提供商包括任何实现了 OpenAI API 格式的 API
  • Azure OpenAI 服务:微软托管的 OpenAI 模型
  • vLLM:自托管推理服务器
  • Ollama:本地模型运行器
  • 文本生成推理 (TGI):Hugging Face 的推理服务器
  • LocalAI:本地 OpenAI API 替代方案
  • 其他 OpenAI 兼容 API:任何自定义实现

配置格式

通过远程配置 JSON 中的 providerSettings.OpenAiCompatible 部分配置自定义提供商
{
  "providerSettings": {
    "OpenAiCompatible": {
      "models": [
        {
          "id": "gpt-4-turbo",
          "name": "GPT-4 Turbo"
        }
      ],
      "openAiBaseUrl": "https://your-api.company.com/v1"
    }
  }
}

配置字段

字段类型描述必填
models数组模型配置列表
openAiBaseUrl字符串API 终端基础 URL
openAiApiKey字符串用于身份验证的 API 密钥
openAiModelId字符串默认模型标识符

Azure OpenAI 特有字段

对于 Azure OpenAI,还有额外的字段可用
字段类型描述
azureApiVersion字符串Azure API 版本(例如,2024-02-15-preview

配置示例

Azure OpenAI

{
  "providerSettings": {
    "OpenAiCompatible": {
      "models": [
        {
          "id": "gpt-4-turbo",
          "name": "GPT-4 Turbo"
        }
      ],
      "openAiBaseUrl": "https://your-resource.openai.azure.com/openai/deployments/gpt-4-turbo",
      "openAiApiKey": "your-azure-api-key",
      "azureApiVersion": "2024-02-15-preview"
    }
  }
}

自托管 vLLM

{
  "providerSettings": {
    "OpenAiCompatible": {
      "models": [
        {
          "id": "meta-llama/Llama-2-70b-chat-hf",
          "name": "Llama 2 70B"
        }
      ],
      "openAiBaseUrl": "http://vllm.company.com:8000/v1"
    }
  }
}

本地 Ollama

{
  "providerSettings": {
    "OpenAiCompatible": {
      "models": [
        {
          "id": "codellama",
          "name": "Code Llama"
        }
      ],
      "openAiBaseUrl": "https://:11434/v1"
    }
  }
}

文本生成推理 (TGI)

{
  "providerSettings": {
    "OpenAiCompatible": {
      "models": [
        {
          "id": "mistralai/Mistral-7B-Instruct-v0.2",
          "name": "Mistral 7B Instruct"
        }
      ],
      "openAiBaseUrl": "http://tgi.company.com:8080/v1",
      "openAiApiKey": "your-tgi-api-key"
    }
  }
}

LocalAI

{
  "providerSettings": {
    "OpenAiCompatible": {
      "models": [
        {
          "id": "gpt-3.5-turbo",
          "name": "Local GPT-3.5"
        }
      ],
      "openAiBaseUrl": "https://:8080/v1"
    }
  }
}

内部网络(无需身份验证)

{
  "providerSettings": {
    "OpenAiCompatible": {
      "models": [
        {
          "id": "custom-model",
          "name": "Custom Model"
        }
      ],
      "openAiBaseUrl": "http://internal.api:8000/v1"
    }
  }
}

模型配置

每个模型都需要基本信息
{
  "id": "model-identifier",
  "name": "Display Name",
  "info": {
    "maxTokens": 4096,
    "contextWindow": 128000,
    "supportsImages": true,
    "supportsPromptCache": false
  }
}

先决条件

在配置自定义提供商之前,您需要
  1. API 终端:您的 OpenAI 兼容 API 的 URL
  2. API 密钥(如果需要):身份验证凭据
  3. 模型 ID:可用模型的名称
  4. 网络访问:Cline 所在位置的网络连接

故障排除

连接错误 验证终端是否可访问:
curl https://your-api.company.com/v1/models
身份验证错误 使用您的 API 密钥测试身份验证:
curl -H "Authorization: Bearer your-api-key" \
  https://your-api.company.com/v1/models
找不到模型 确保配置中的模型 ID 与 API 所期望的匹配。检查可用模型:
curl -H "Authorization: Bearer your-api-key" \
  https://your-api.company.com/v1/models
超时问题 如果响应缓慢:
  • 检查网络延迟
  • 验证服务器是否有足够的资源
  • 考虑使用更快的模型

提供商文档

有关这些服务的设置和部署,请参阅其官方文档