跳过主要内容
SAP AI Core 和 Generative AI Hub 可帮助您以具有成本效益的方式将 LLM 和 AI 集成到新的业务流程中。 网站: SAP 帮助门户
SAP AI Core 和 Generative AI Hub 是 SAP BTP 的产品。您需要一个有效的 SAP BTP 合同和一个现有的子账户,其中包含一个具有 extended 服务计划的 SAP AI Core 实例(有关 SAP AI Core 服务计划及其功能的更多详细信息,请参阅服务计划文档)才能执行这些步骤。

获取服务绑定

  1. 访问:通过 BTP Cloud Cockpit 访问您的子账户
  2. 创建服务绑定:转到“实例和订阅”,选择您的 SAP AI Core 服务实例,然后单击“服务绑定”>“创建”。
  3. 复制服务绑定:复制服务绑定值。

支持的模型

SAP AI Core 支持大量且不断增长的模型。有关完整和最新的列表,请参阅Generative AI Hub 支持的模型页面

在 Cline 中配置

  1. 打开 Cline 设置: 单击 Cline 面板中的设置图标 (⚙️)。
  2. 选择提供商:从“API 提供商”下拉列表中选择“SAP AI Core”。
  3. 输入客户端 ID:将服务绑定中的 .clientid 字段添加到“AI Core 客户端 ID”字段中。
  4. 输入客户端密钥:将服务绑定中的 .clientsecret 字段添加到“AI Core 客户端密钥”字段中。
  5. 输入基础 URL:将服务绑定中的 .serviceurls.AI_API_URL 字段添加到“AI Core 基础 URL”字段中。
  6. 输入身份验证 URL:将服务绑定中的 .url 字段添加到“AI Core 身份验证 URL”字段中。
  7. 输入资源组:添加您部署模型的资源组。请参阅创建生成式 AI 模型的部署
  8. 配置编排模式:如果您有 extended 服务计划,将自动显示“编排模式”复选框。
  9. 选择模型: 从“模型”下拉列表中选择您想要的模型。

编排模式与原生 API

编排模式
  • 简化用法:使用 Harmonized API 提供对所有可用模型的访问,无需单独部署
原生 API 模式
  • 手动部署:需要您在 SAP AI Core 服务实例中手动部署和管理模型

提示和注意事项

  • 服务计划要求:您必须拥有 SAP AI Core extended 服务计划才能使用 Cline 访问 LLM。其他服务计划不提供对 Generative AI Hub 的访问权限。
  • 编排模式(推荐):保持启用编排模式以实现最简单的设置。它提供对所有可用模型的自动访问,无需手动部署。
  • 原生 API 模式:仅当您有需要直接访问 AI Core API 或需要编排模式不支持的功能的特定要求时才禁用编排模式。
  • 使用原生 API 模式时
    • 模型选择:模型下拉列表显示两个单独的模型列表
      • 已部署模型:这些模型已部署在您指定的资源组中,可立即使用。
      • 未部署模型:这些模型在您指定的资源组中没有活动的部署。在 SAP AI Core 中为它们创建部署之前,您无法使用这些模型。
    • 创建部署:要使用尚未部署的模型,您需要在 SAP AI Core 服务实例中创建部署。有关说明,请参阅创建生成式 AI 模型的部署

为 OpenAI 模型配置推理工作量

通过 SAP AI Core 使用 OpenAI 推理模型(例如 o1、o3、o3-mini、o4-mini)时,您可以控制推理工作量以平衡性能和成本
  1. 打开 Cline 设置: 单击 Cline 面板中的设置图标 (⚙️)。
  2. 导航到功能:转到设置中的“功能”部分。
  3. 查找 OpenAI 推理工作量:找到“OpenAI 推理工作量”设置。
  4. 选择工作量级别:在以下选项中选择
    • 低:响应速度更快,令牌使用量较低,适用于简单任务
    • 中:大多数任务的性能和令牌使用量平衡
    • 高:分析更彻底,令牌使用量更高,更适合复杂的推理任务
此设置仅在使用通过 SAP AI Core 部署的 OpenAI 推理模型(o1、o3、o3-mini、o4-mini、gpt-5 等)时适用。其他模型将忽略此设置。