DeepSeek R1满血+火山引擎详细教程

server/2025/3/4 5:38:15/

DeepSeek R1满血+火山引擎详细教程

一、安装Cherry Studio。

Cherry Studio AI 是一款强大的多模型 AI 助手,支持 iOS、macOS 和 Windows 平台。可以快速切换多个先进的 LLM 模型,提升工作学习效率。下载地址

https://cherry-ai.com/

认准官网,无强制注册。
在这里插入图片描述

这步选择哪个都行,我选择第一个“所有用户”

在这里插入图片描述

安装完成界面是这个样子。
在这里插入图片描述
二、注册火山引擎
下来暂时不需要Cherry Studio,我们打开浏览器,搜索火山引擎,点击官网跳转至以下界面,请大家认准官网界面。

在这里插入图片描述
右上角点击“登录”按钮,注册及登录,手机号即可,没注册的会自动注册
在这里插入图片描述
登录后会回这个界面,点击“火山方舟”,然后点下面“API构建应用”的“立即使用”
在这里插入图片描述
三、获取API Key并填写
进入在左侧找到API Key管理

在这里插入图片描述
点击“创建API Key”

在这里插入图片描述
弹出创建API Key,选择默认的名称
在这里插入图片描述
点创建,自动生成一串Key,复制好Key
在这里插入图片描述
随后打开Cherry Studio端,照以下顺序,在“模型程序”这里找到“火山引擎”,并将刚刚复制的Key粘贴到API密钥处。

在这里插入图片描述
四、新建及配置应用
回到火山引擎的网页,在左侧找到“我的应用”

在这里插入图片描述
在这里插入图片描述
点击创建应用,选择零代码,确定创建
在这里插入图片描述
点击“单聊”,创建

在这里插入图片描述
会进入新建应用界面,在蓝色框的区域输入你想写的应用名称,可以随便取一个名字,描述可以随便写:Deepseek满血联网版
在这里插入图片描述
到配置信息这里,选择蓝色框推理接入点,这个时候,你还没有接入点,所以要点击“前往创建”

在这里插入图片描述
在这里配置接入点名称,随便填了一个“cherry-sand”,名称随便写,然后点击模型选择-添加模型
在这里插入图片描述
点击后,来到了火山的模型广场,点击Deep seek,然后选择DeepSeek–DeepSeek-R1–250120这个最新版本,点击确定

在这里插入图片描述
然后回到接入点这个界面,页面会提示,该模型未开通,根据提示,点击“立即开通”

在这里插入图片描述
点击后实名认证页面,完成实名认证,返回接入点页面
在这里插入图片描述
在这里插入图片描述
这时候就可以选择需要开通的模型了,这里可以进行了全选,其他的把该勾的都勾上,点击立即开通

在这里插入图片描述
开通成功

在这里插入图片描述
现在回到接入点的界面,就发现页面不再有提示,确认接入按钮可以点击了,在这里提醒,火山给了50万tokens免费推理额度,简单理解,就是提问个2000-3000次不成问题,超过了这个就停了。如果觉得用的方便,再自行进行充值。
在这里插入图片描述
来了,这是关键,这时候会发现新建应用界面这里有个“联网内容插件”,打开它的时候会让你对该功能进行一个订购,这里抠图失败,但是类似开通模型界面,全部打勾就行了
在这里插入图片描述
要注意的一点,“联网资源”,项目每个月免费额度2万次,超过之后付费。不过2万次足够了,超过了没钱,这服务就停了。
在这里插入图片描述
至于那些没有免费的或者没有免费额度的,各位像下图一样确认一下,不要勾选
在这里插入图片描述

其余配置有这样设置的,供参考
在这里插入图片描述
完成这些之后,已经完成R1满血联网版开通的90%的工作了,马上就可以体验到了。点击右上角的“发布”

在这里插入图片描述
然后来到左上角,找到这串代码,点击复制。这里的“应用ID”是唯一的,所有人都不一样
在这里插入图片描述
然后来到左上角,找到这串代码,点击复制。这里的“应用ID”是唯一的,所有人都不一样
在这里插入图片描述

然后点击下方白色按钮“+添加”
在这里插入图片描述
显示出对话框的模型ID输入你获得的ID,模型名称和分组名称自行填写,点击添加模型。此时,大功告成近在咫尺。

在这里插入图片描述
右上角打开你的火山引擎的开关
在这里插入图片描述
下一步,用默认助手,选择你的应用ID
在这里插入图片描述
愉快的使用吧
享受满血联网版的DeepSeek R1,来,让我们试着问个问题:目前Deep seek与Chat GPT那个更好用

在这里插入图片描述


http://www.ppmy.cn/server/172262.html

相关文章

FPGA的ram Xilinx的IP Block Memory Generator

做过设计的对memory都比较熟悉了,在Asic设计中通常是rom,ram,那这些rom,ram在FPGA的模式下面怎么做呢,有两种方法,一种就是自己写代码,用寄存器去搭,搭好后需要指定综合成block ram&…

Sparsely-Gated Mixture-of-Experts Layer (MoE)论文解读与Pytorch代码实现

MoE解析 阅读论文:https://arxiv.org/pdf/1701.06538 OUTRAGEOUSLY LARGE NEURAL NETWORKS:THE SPARSELY-GATED MIXTURE-OF-EXPERTS LAYER 本文介绍了一种名为Sparsely-Gated Mixture-of-Experts Layer (MoE) 的神经网络组件,旨在通过条件计算&#xf…

Ubuntu 下 nginx-1.24.0 源码分析 - ngx_init_cycle 函数 - 详解(8)

详解(8) 初始化模块配置上下文(conf_ctx) cycle->conf_ctx ngx_pcalloc(pool, ngx_max_module * sizeof(void *));if (cycle->conf_ctx NULL) {ngx_destroy_pool(pool);return NULL;}1 分配模块配置上下文数组 cycle->…

kafka stream对比flink

Kafka Streams 和 Apache Flink 虽然都支持实时计算,但它们的定位、架构和适用场景存在显著差异。选择哪一个取决于具体的需求、场景和技术栈。以下是两者的核心区别和适用场景分析: 1. 定位与架构差异 Kafka Streams 定位:轻量级库&#x…

使用 Nginx 轻松处理跨域请求(CORS)

使用 Nginx 轻松处理跨域请求(CORS) 在现代 Web 开发中,跨域资源共享(CORS)是一种重要的机制,用于解决浏览器的同源策略限制。CORS 允许服务器声明哪些来源可以访问其资源,从而确保安全性与可用…

《深度学习实战》第4集:Transformer 架构与自然语言处理(NLP)

《深度学习实战》第4集:Transformer 架构与自然语言处理(NLP) 在自然语言处理(NLP)领域,Transformer 架构的出现彻底改变了传统的序列建模方法。它不仅成为现代 NLP 的核心,还推动了诸如 BERT、…

在 Ubuntu 下通过 Docker 部署 Mastodon 服务器

引言 大家好,我是Hitch。今天咱们来聊聊如何在 Ubuntu 系统上通过 Docker 部署 Mastodon 服务器。Mastodon 是一个开源的社交网络平台,像 Twitter 但更自由。Docker 是一个强大的容器化工具,可以让我们轻松地打包和部署应用。接下来&#xf…

华为开源自研AI框架昇思MindSpore应用案例:基于MindSpore框架实现one-stage目标检测模型SSD

SSD,全称Single Shot MultiBox Detector,是Wei Liu在ECCV 2016上提出的一种目标检测算法。使用Nvidia Titan X在VOC 2007测试集上,SSD对于输入尺寸300x300的网络,达到74.3%mAP以及59FPS;对于512x512的网络,…