跳过主要内容

先决条件

  • Windows、macOS 或 Linux 计算机
  • VS Code 中已安装 Cline

设置步骤

1. 安装 Ollama

  • 访问 ollama.com
  • 为您的操作系统下载并安装
Ollama download page

2. 选择并下载模型

  • ollama.com/search 浏览模型
  • 选择模型并复制命令
    ollama run [model-name]
    
Selecting a model in Ollama
  • 打开终端并运行命令
    • 示例
      ollama run llama2
      
Running Ollama in terminal
您的模型现在可以在 Cline 中使用了。

3. 配置 Cline

Complete Ollama setup process
打开 VS Code 并配置 Cline
  1. 点击 Cline 设置图标
  2. 选择 “Ollama” 作为您的 API 提供商
  3. 基本 URL:https://:11434/ (默认,通常无需更改)
  4. 从下拉菜单中选择您的模型
为了获得最佳的 Cline 体验,请使用 Qwen3 Coder 30B。该模型为本地开发提供了强大的编码能力和可靠的工具使用。 要下载它:
ollama run qwen3-coder-30b
其他有能力的模型包括
  • mistral-small - 性能和速度的良好平衡
  • devstral-small - 针对编码任务进行了优化

重要提示

  • 在使用 Cline 之前启动 Ollama
  • 保持 Ollama 在后台运行
  • 首次模型下载可能需要几分钟

启用紧凑型提示

为了获得更好的本地模型性能,请在 Cline 设置中启用紧凑型提示。这会将提示大小减少 90%,同时保持核心功能。 导航至 Cline 设置 → 功能 → 使用紧凑型提示 并将其打开。

故障排除

如果 Cline 无法连接到 Ollama
  1. 验证 Ollama 是否正在运行
  2. 检查基本 URL 是否正确
  3. 确保模型已下载
需要更多信息?阅读 Ollama 文档