不熟悉模型选择? 从 Cline学习路径的模块2 开始,获取选择和配置模型的全面指南。
什么是人工智能模型?
将AI模型视为为Cline提供动力的“大脑”。当你要求Cline编写代码、修复错误或重构项目时,正是模型理解了你的请求并生成了响应。 要点:- 模型是经过训练的AI系统,能够理解自然语言和代码
- 不同的模型有不同的优势,有些擅长复杂推理,有些则优先考虑速度或成本
- 你选择Cline使用哪个模型,就像针对不同任务选择不同的专家一样
- 通过API提供商访问模型 - Anthropic、OpenAI和OpenRouter等公司托管这些模型
如何在Cline中选择模型
遵循这5个简单步骤,使用你首选的AI模型启动并运行Cline第1步:打开Cline设置
首先,你需要访问Cline的配置面板。 打开设置的两种方式:- 快速方法:点击Cline聊天界面右上角的齿轮图标 (⚙️)
- 命令面板:按 Cmd/Ctrl + Shift + P → 输入 “Cline: Open Settings”

设置面板会记住你上次的配置,所以你只需设置一次。
第2步:选择API提供商
从下拉菜单中选择你首选的AI提供商。
| 提供商 | 最适合 | 备注 |
|---|---|---|
| Cline | 最简单的设置 | 无需API密钥,可访问多个模型,包括隐形模型 |
| OpenRouter | 注重性价比的用户 | 多个模型,有竞争力的定价 |
| Anthropic | 可靠性 | Claude模型,最可靠的工具使用 |
| OpenAI | 最新技术 | GPT模型 |
| Google Gemini | 大上下文窗口 | 谷歌的AI模型 |
| AWS Bedrock | 企业级 | 高级功能 |
| Ollama | 隐私性 | 在本地运行模型 |
推荐给初学者: 从Cline作为提供商开始 - 无需API密钥管理,即时访问多个模型,并通过合作提供商偶尔提供免费推理。
第3步:添加API密钥(或登录)
下一步取决于你选择的提供商。如果您选择了Cline作为提供商
- 无需API密钥! 只需使用您的Cline账户登录即可
- 在提示时点击登录按钮
- 您将被重定向到 app.cline.bot 进行身份验证
- 登录后,返回您的IDE
如果您选择了任何其他提供商
您需要从所选提供商处获取API密钥-
访问提供商的网站以获取API密钥
- Anthropic:console.anthropic.com
- OpenRouter:openrouter.ai/keys
- OpenAI:platform.openai.com/api-keys
- Google:aistudio.google.com/apikey
- 其他:请参阅提供商设置指南
- 在提供商网站上生成新的API密钥
- 将API密钥复制到剪贴板
- 在Cline设置中的“API密钥”字段中粘贴您的密钥
- 自动保存 - 您的密钥安全地存储在编辑器的秘密存储中

第4步:选择您的模型
添加API密钥(或登录)后,“模型”下拉菜单将变为可用。
| 您的首要考虑因素 | 选择此模型 | 原因 |
|---|---|---|
| 最大可靠性 | Claude Sonnet 4.5 | 最可靠的工具使用,擅长复杂任务 |
| 最佳性价比 | DeepSeek V3 或 Qwen3 Coder | 在预算价格下表现出色 |
| 最快速度 | Cerebras上的Qwen3 Coder | 闪电般的响应速度 |
| 本地运行 | 任何Ollama模型 | 完全隐私,无需互联网 |
| 最新功能 | GPT-5 | OpenAI的最新功能 |
第5步:开始使用Cline
恭喜!您已全部设置完毕。 以下是如何开始使用Cline编写代码-
在Cline聊天框中输入您的请求
- 示例:“创建一个用于登录表单的React组件”
- 示例:“调试这个TypeScript错误”
- 示例:“重构此函数以提高效率”
- 按Enter键或点击发送图标提交
选择合适的模型
选择合适的模型需要平衡多个因素。使用此框架来找到最适合您的模型专业提示:为计划模式和执行模式配置单独的模型。最大限度地利用每个模型的优势。例如,使用预算模型进行计划讨论,使用高级模型进行实现。
关键选择因素
| 因素 | 考虑事项 | 建议 |
|---|---|---|
| 任务复杂度 | 简单修复 vs 复杂重构 | 预算模型适用于常规任务;高级模型适用于复杂工作 |
| 预算 | 每月支出能力 | $10-$30:预算, $30-$100:中端, $100+:高级 |
| 上下文窗口 | 项目大小和文件数量 | 小:32K-128K,中:128K-200K,大:400K+ |
| 速度 | 响应时间要求 | 交互式:快速模型,后台:推理模型也可以 |
| 工具可靠性 | 复杂操作 | Claude擅长工具使用;使用您的工作流程测试其他模型 |
| 提供商 | 访问和定价需求 | OpenRouter:多种选择,直接访问:更快/更可靠,本地:隐私 |
模型比较资源
有关详细的模型比较、定价和性能指标,请参阅开源与闭源
开源优势
- 多个提供商竞争托管它们
- 由于竞争而定价更便宜
- 提供商选择 - 如果一个出问题可以切换到另一个
- 更快的创新周期
可用开源模型
- Qwen3 Coder (Apache 2.0)
- Z AI GLM 4.5 (MIT)
- Kimi K2 (开源)
- DeepSeek系列 (各种许可证)
快速决策矩阵
| 如果你想要… | 使用这个 |
|---|---|
| 一个能正常工作的模型 | Claude Sonnet 4.5 |
| 省钱 | DeepSeek V3 或 Qwen3 变体 |
| 巨大的上下文窗口 | Gemini 2.5 Pro 或 Claude Sonnet 4.5 |
| 开源 | Qwen3 Coder, Z AI GLM 4.5, 或 Kimi K2 |
| 最新技术 | GPT-5 |
| 速度 | Cerebras上的Qwen3 Coder(最快的可用模型) |

