让我们面对现实吧:像 GitHub Copilot 这样的 AI 编码助手非常棒,但它们的订阅费用可能会在你的钱包里烧一个洞。进入 DeepSeek R1 — 一个免费的开源语言模型,在推理和编码任务方面可与 GPT-4 和 Claude 3.5 相媲美。将它与 Cline 配对,Cline 是一个 VS Code 插件,可将这个 AI 变成一个成熟的编码代理,你就得到了一个强大的设置,可以自主编写、调试甚至执行代码——所有这些都不需要花一分钱。
在本教程中,我将引导您了解您需要了解的所有内容,从安装 Cline 到为您的项目优化 DeepSeek R1。让我们开始吧!
DeepSeek R1 有什么特别之处?
1.免费(是的,真的!
与专有模型不同,DeepSeek R1 是完全开源的,并且可用于商业用途。没有代币限制,没有隐藏费用——只有原始的 AI 能力。
2.可与付费模型相媲美的性能
DeepSeek R1 在编码、数学和逻辑推理方面表现出色。例如,它的 32B 参数变体在代码生成基准测试中优于 OpenAI 的 o1-mini,其 70B 模型在复杂任务中与 Claude 3.5 Sonnet 相匹配。
3.灵活的部署选项
在本地运行它以保护隐私和速度,或使用 DeepSeek 经济实惠的 API(低至每 100 万个令牌 0.01 美元)进行基于云的访问。
使用 Cline 在 VS Code 中设置 DeepSeek R1
第 1 步:安装 Cline 插件
1.打开 VS Code 并导航到 Extensions 选项卡。
2.搜索“Cline”并安装它。
3.单击左侧边栏中的机器人图标以激活 Cline 。
第 2 步:选择您的 DeepSeek R1 工作流程
选项 A:本地设置(免费、隐私优先)
1.安装 Ollama:从 ollama.com 下载它以管理本地 AI 模型。
2.拉取模型:在终端中,运行:
ollama pull deepseek-r1:14b # For mid-tier hardware (e.g., RTX 3060)
Smaller models like 1.5b
work for basic tasks, but 14B+ is recommended for coding . 像 1.5b
这样的较小模型适用于基本任务,但建议使用 14B+ 进行编码。
配置 Cline:
-
将 API 提供程序设置为 “Ollama”。
-
输入
http://localhost:11434
作为 基本 URL,然后选择您的模型(例如,deepseek-r1:14b
) 。
点击 “Lets go”,您现在可以使用它了。
选项 B:OpenRouter 集成(灵活的模型切换)
对于希望通过单个 API 密钥访问多个 AI 模型(包括 DeepSeek R1)的开发人员,OpenRouter 提供了一种简化的解决方案。如果您偶尔需要将输出与 GPT-4 或 Claude 等模型进行比较,但希望将 DeepSeek R1 作为默认模型,那么这是理想的选择。
第 1 步:获取您的 OpenRouter API 密钥
1.访问 OpenRouter.ai 并注册。
2.导航到 API 密钥并创建新密钥。
可选:在账户设置中启用支出限额以进行成本控制。
第 2 步:为 OpenRouter 配置 Cline
-
在 VS Code 中,打开 Cline 的设置。
-
选择“OpenAI 兼容”作为 API 提供者。
-
将 Base URL (基本 URL) 设置为
https://openrouter.ai/api/v1
。 -
粘贴您的 OpenRouter API 密钥。
第 3 步:测试集成
向 Cline 询问编码问题以确认设置:
如果配置正确,DeepSeek R1 将在 Cline 的界面中生成带有解释的代码。
为什么选择 OpenRouter?
-
多模型访问:在 DeepSeek R1 和 50+ 其他模型(例如 GPT-4、Claude)之间轻松切换,而无需重新配置 APIs4。
-
成本透明度:在一个控制面板中跟踪所有模型的代币使用情况4。
-
回退支持:如果 DeepSeek R1 的 API 过载,自动将请求路由到备份模型4。
Cost Considerations 成本注意事项
虽然 OpenRouter 的 DeepSeek R1 定价与直接 API 成本(每百万输入令牌 ~0.01 美元)密切相关,但请务必查看其定价页面以获取实时费率。对于重度用户,OpenRouter 的统一计费可以简化费用管理25。
Apifox 集成的高级用例
一旦你的 DeepSeek R1 + Cline 设置运行起来,使用 Apifox 来:
-
测试 API 终端节点:以编程方式验证 DeepSeek 的响应。
-
自动化工作流程:使用 API 调用生成 Chain Cline 的代码(例如,将生成的脚本部署到 AWS)。
-
监控性能:跟踪一段时间内的延迟和准确性。
Deepseek API 直接调用教程
如果 API Key 有了之后,我们就可以调用它了,通过 Apifox 集成 Deepseek API,可快速完成 API 调试。
第一步:填写 API Key
获得 API 密钥后,你可以在 API 文档中开始使用它,无需编写代码:
-
访问由 Apifox 创建的 DeepSeek 在线 API 文档。
-
打开 Apifox 桌面:点击页面上的「Run in Apifox」,在弹出的窗口中点击「在桌面上打开」,引导你进入 Apifox 的桌面版本(如果你尚未下载该应用程序,则需要先下载)。
下载最新版 Apifox
-
输入你的 API 密钥:打开文档后,在 Apifox 中选择一个接口,点击「Auth」,选择「Bearer Token」。然后复制之前创建的令牌,将其粘贴「Token」上密钥保存在本地,因此不存在泄露风险。
还有一种方法设置 API Key,在项目右上角的 “环境管理” 中,点击“正式环境”,这个环境变量的值就是上面创建的 Deepseek API 的 API Key,添加完成后保存即可。
第二步:调用 API
1.点击“发送”即可调用 API。如果调用成功,API 响应将显示在下面的页面中。
2.修改 Body 中的 messages 里的信息,你就可以实现不同的对话。
3.如果要实现流式输出,可以将 stream 的值改为 true
。
💡
通过指定
model='deepseek-chat'
即可调用 DeepSeek-V3。 通过指定model='deepseek-reasoner'
,即可调用 DeepSeek-R1。