DeepSeek之Api的使用(将DeepSeek的api集成到程序中)

embedded/2025/2/13 0:35:07/

一、DeepSeek API 的收费模式

前言:使用DeepSeek的api是收费的

在这里插入图片描述

免费版:
可能提供有限的免费额度(如每月一定次数的 API 调用),适合个人开发者或小规模项目。

付费版:
超出免费额度后,可能需要按调用次数、数据量或订阅计划收费。

企业版:
针对企业用户,可能提供定制化服务和更高的调用限额,通常需要联系销售团队获取报价。

注意:如果 API 调用费用较高或需要更高的数据隐私性,可以考虑本地部署 DeepSeek 模型。

二、 如何获取 DeepSeek API

1、访问官方网站:
前往 DeepSeek 的官方网站(如 https://www.deepseek.com),查找 API 相关的文档和注册入口。
在这里插入图片描述

2、注册开发者账号:
注册账号并获取 API Key,用于身份验证和调用 API。
注意:创建的api key仅创建时可见,注意复制保存
在这里插入图片描述

3、DeepSeek API 说明

PARAMVALUE
base_urlhttps://api.deepseek.com
api_key可申请 api_key
  • 出于与 OpenAI 兼容考虑,您也可以将 base_url 设置为 https://api.deepseek.com/v1 来使用,但注意,此处 v1 与模型版本无关。

  • deepseek-chat 模型已全面升级为 DeepSeek-V3,接口不变。 通过指定 model=‘deepseek-chat’ 即可调用 DeepSeek-V3。

  • deepseek-reasoner 是 DeepSeek 最新推出的推理模型 DeepSeek-R1。通过指定 model=‘deepseek-reasoner’,即可调用 DeepSeek-R1。

三、调用对话 API

在创建 API key 之后,你可以使用以下样例脚本的来访问 DeepSeek API。样例为非流式输出,您可以将 stream 设置为 true 来使用流式输出。

1、curl调用DeepSeek:

curl https://api.deepseek.com/chat/completions \-H "Content-Type: application/json" \-H "Authorization: Bearer <DeepSeek API Key>" \-d '{"model": "deepseek-chat","messages": [{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": "Hello!"}],"stream": false}'

2、python调用DeepSeek:

from openai import OpenAIclient = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")response = client.chat.completions.create(model="deepseek-chat",messages=[{"role": "system", "content": "You are a helpful assistant"},{"role": "user", "content": "Hello"},],stream=False
)print(response.choices[0].message.content)

3、postman调用DeepSeek
在这里插入图片描述这里调用报错,意思是余额不足,需要充值。充值后就可以使用了!

4、如果是本地部署了DeepSeek,也可使用postman本地调用api
在这里插入图片描述

说明

1、本地调用api,地址是127.0.0.1,默认端口是11434。
接口多了一个v1,官方文档的解释是出于与 OpenAI 兼容考虑。
所以本地接口地址是 http://127.0.0.1:11434/v1/chat/completions
如果我们希望开发的业务集成自己部署的DeepSeek的api,那么更换下DeepSeek部署所在机器的ip即可,即 http://ip:11434/v1/chat/completions,同时要注意部署所在的系统应该放行11434端口。

2、调用参数model应设置为deepseek-r1:8b,也就是我们安装的r1模型的名称。
而不是deepseek-reasoner,因为deepseek-reasoner是DeepSeek官方定义的r1模型的别名。
否则提示模型不存在!

注意事项

1、针对付费版 API 调用限制:注意 API 的调用频率限制(rate limits),避免超出限额。
2、数据隐私:如果涉及敏感数据,确保 API 调用符合数据隐私法规(如 GDPR)。
3、错误处理:在程序中添加错误处理逻辑,以应对 API 调用失败或返回错误的情况。


http://www.ppmy.cn/embedded/161729.html

相关文章

Python的那些事第十八篇:框架与算法应用研究,人工智能与机器学习

人工智能与机器学习&#xff1a;框架与算法应用研究 摘要 本文深入探讨了人工智能与机器学习领域的核心框架和技术&#xff0c;包括TensorFlow、PyTorch和Scikit-learn库。文章首先介绍了TensorFlow和PyTorch的安装与配置方法&#xff0c;详细阐述了它们的基础概念&#xff0c…

SQLMesh系列教程-2:SQLMesh入门项目实战(下篇)

上篇我介绍了环境搭建、duckdb数据准备、sqlmesh数据模型、plan命令运行。本文继续介绍审计、测试、生成血缘关系以及python模型等。 有两种方法可以在SQLMesh中创建宏。一种方法是使用Python&#xff0c;另一种方法是使用Jinja。这里我们创建Python宏。让我们构建简单的Python…

火热的大模型: AIGC架构解析

文章目录 一、背景介绍二、架构描述数据层模型层&#xff08;MaaS&#xff09;服务层&#xff08;PaaS&#xff09;基础设施层&#xff08;IaaS&#xff09;应用层 三、架构分析四、应用场景与价值4.1 典型场景4.2 价值体现 五、总结 一、背景介绍 火热的大模型&#xff0c;每…

服务器芯片合封电源解决方案

方案简介 为满足人工智能、机器学习、大数据挖掘等高性能应用日益增长 的需求,处理器工作电流现已提高到数百安培。将大电流供电单元部署在处理器附近的负载点电源架构,可减少主板上的配电损耗,但不能减少处理器与主板之间的互连挑战。随着处理器电流的增大,与处理器的剩余…

前端性能分析常见内容

前端性能分析是前端开发中的重要部分&#xff0c;以下是对前端常考性能分析题目的详解&#xff1a; 一、性能指标 前端性能优化的核心目标是提升用户体验&#xff0c;常见的性能指标包括&#xff1a; 加载时间&#xff08;Load Time&#xff09;&#xff1a;指从用户发出请求…

Spring Boot 配置JPA数据库主从读写分离失败及解决办法

因为是老项目, Spring Boot 是1.4, 使用 AbstractRoutingDataSource 来做主从切换, 配置切面类在进入事务时切换成主库, 但实际运行起来却失败, 写操作路由到了从库 查了很多文章, 试了很多方法都无效, 包括修改注解 Transactional 的 propagation 属性, 清空主从标记等等 打…

从小白开始的动态规划

一、动态规划的核心思想 动态规划&#xff08;DP&#xff09;通过拆分问题记忆化计算解决复杂问题&#xff0c;核心步骤为&#xff1a; 定义状态&#xff1a;用变量&#xff08;如dp[i]&#xff09;表示子问题的解 状态转移方程&#xff1a;建立子问题之间的关系式 初始化&a…

ASP.NET Core SignalR的协议协商

SignalR支持多种服务器推送方式&#xff1a;Websocket、Server-Sent Events、长轮询。默认按顺序尝试。F12查看协商过程。websocket和HTTP是不同的协议&#xff0c;为什么能用同一个端口。在【开发人员工具】的【网络】页签中看WebSocket通信过程。 协议协商问题 集群中协议协…