5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署)

ops/2025/2/8 3:40:07/

最近很多朋友都在问:怎么本地部署 DeepSeek 搭建个人知识库。

老实说,如果你不是为了研究技术,或者确实需要保护涉密数据,我真不建议去折腾本地部署。

为什么呢?

目前 Ollama 从 1.5B 到 70B 都只是把 R1 的推理能力提炼到 Qwen 和 Llama 的蒸馏版本上。

虽说性能是提升了不少,但跟原汁原味的 R1 模型比起来,还是差太多了。

官方的满血版本可是 671B 的参数量,说实话,对普通人来说想本地部署,这成本确实太高了。

不过我最近发现了一个平台,不仅能用上 R1 本 1,还提供了不少免费额度。

此外,为了让拥有算力的朋友可以本地部署,我也提供了相关教程。

看完全文,你会收获:

1、满血 DeepSeek R1 模型 API 搭建方式

2、本地部署 DeepSeek R1 模型 搭建方式

一、个人知识库使用效果(满血版) 

来看几个使用案例:如何借助 个人知识库文件 作为外脑,用方法论指导我们正确做事

DeepSeek 确实很好用,但关键还是会不会提问。如果不会提问,AI 再强也帮不上忙。

除了花时间学习提示词,更快的方式是本地备一份提问指南,让 AI 指导你该怎么正确提问,这样才能真正发挥它的价值!

AI 借助知识库内的 DeepSeek 指导手册,预判了我可能想问的问题,以及建议的正确提示词格式。

从回答中可以发现,AI 不是依据自身语料库回复,而是基于知识库内容回复。

当然,我们也可以直接提问,精准搜索知识库的原始信息,从而达到快速查询的效果。

二、API 搭建知识库 

如果本地数据不涉密,还想获得最佳使用效果,那肯定得选满血的 DeepSeek R1 模型。

我们来看看怎么利用 API 用上满血的 R1 模型(671 B)。

1、先下载一个叫 Cherry Studio 的软件。

地址: https://cherry-ai.com/download

2、登录/注册「硅基流动」,新用户会赠送 2000 万 Token 额度。

地址:https://cloud.siliconflow.cn/i/TAAOvaXg

3、来到 API 密钥生成界面,创建或者复制已有的密钥。

4、来到 Cherry Studio,配置 API Key。

5、在模型广场首页,排在前两位的就是「硅基流动」「华为云」合作发布的 DeepSeek R1 / V3 模型。

如果需要推理能力,记得打开并复制 R1 模型的名称。

6、在模型服务的硅基流动下方,添加 R1 模型。

7、记得点击检查,测试下 API 是否可以正常访问

8、现在对话模型有了 R1,还缺少一个嵌入模型。

嵌入模型的主要作用是将本地文件的内容转换成有意义的数字,存储到向量数据库中

在用户提问时,利用 RAG 技术在数据库中搜索到相似答案,最终回复用户。

过去我有通俗解释过 RAG 技术,大家如果不了解,可以回头看下:

我们再配置一个向量模型:BAAI/bge-m3。如果希望搜索的精准度更高,可以选择 Pro/BAAI/bge-m3。

按照同样的方式配置到 Cherry Studio 中,这里不需要点击检查。

9、在 Cherry Studio 创建知识库,选择刚才配置的嵌入模型,这样就会自动利用对应的模型来向量化数据。

10、上传本地文件进行向量化。

如果本地 PDF 文件是 扫描件、手写件,或者带有复杂的表格 和 数学公式,解析效果会很差,甚至无法解析。

遇到这种情况,建议配合过去我介绍的 PDF 转结构化文档 的方案来使用!!!

这样才可以正常回复知识库的内容:免费AI神器!精准解析 PDF 还能一键翻译!

如果追求性价比,推荐使用 Doc2x:https://doc2x.noedgeai.com?inviteCode=4A6KOD

如果希望更加稳定,那么可以考虑 Textin :https://www.textin.com/market/detail/pdf_to_markdown

当我们上传文件后,箭头指向的图标如图所示,则代表向量化成功。

11、测试使用,这一步添加助手,并选择刚配置的 满血 R1 模型

如果不想每次在添加助手时选择模型,可以将它设置为 默认模型

我们来测试一下,发现 DeepSeek 已经开始深度思考了。

AI 回复的答案和原文一致。

原文内容:

三、本地部署搭建知识库 

如果只是想 简单体验,或者本地算力充足、希望保护数据安全,那么可以考虑 本地部署 的方案。

1、访问 Ollama 官方地址:https://ollama.com/download,下载软件。

建议下载最新版本 Ollama,个人踩坑经历:旧版本安装 R1 后可能无法正常使用。

2、双击运行 Ollama 后,打开命令行,运行需要安装的模型(参数越大,显存要求越高)。

地址:https://ollama.com/library/deepseek-r1

如果没有 GPU,建议选择 1.5B,运行相对轻量。我这 4G 显存 勉强能跑 8B,但速度较慢。

有朋友用 RTX 4090 测试 32B,效果和速度都不错。大家可以参考这个梯度,根据自己的硬件选择合适的模型。。

下载并运行成功后,就可以和 DeepSeek R1 对话啦。

3、当然,我们可以用 Cherry Studio 作为本地 R1 模型的 UI 界面。

打开软件的配置,选择 Ollama,在管理按钮中选择自己部署的模型。

如果选不到,就手动添加模型,API 秘钥填不填无所谓。

最后点击检查,测试下网络连通性,出现连接成功即可。

接下来就可以在添加助手时,选择本地部署的 R1 模型啦。

4、再测试使用一下,答案与原文一致,搞定 ~

因为我用的是 Mac,所以没测试 Windows 设备。不过两者区别不大,大家可以自行尝试下。

四、总结 

备注:评论区回复“DeepSeek”,免费领取万字DeepSeek指南。

看到这里,相信你已经找到最适合自己的 DeepSeek 个人知识库方案了。

如果你和大多数人一样,选择使用官方 API ,那就不用再为性能和本地硬件资源发愁;

如果你恰好有充足的算力和技术储备,本地部署也是个不错的选择。

不过,在整个过程中,我想和你分享的不仅仅是这些技术细节。

而是一个中国团队能做出世界级大模型,一个需要 +86 才能注册的大模型。

很庆幸,我们能作为中国 AI 技术进步的见证人。

当然,暂时的领先不是终点。

但 DeepSeek 给我们带来的,是“中国也可以”这份信心。

这,才是我们真正要守护的希望。

我是 🐼 熊猫 Jay,希望本次分享能有所帮助。

如果觉得不错,随手点个赞、收藏、转发三连吧。

如果想第一时间收到推送,也可以给我个关注 ⭐

谢谢你看我的文章 ~


http://www.ppmy.cn/ops/156620.html

相关文章

DeepSeek模型构建与训练

在完成数据预处理之后,下一步就是构建和训练深度学习模型。DeepSeek提供了简洁而强大的API,使得模型构建和训练变得非常直观。无论是简单的全连接网络,还是复杂的卷积神经网络(CNN)或循环神经网络(RNN),DeepSeek都能轻松应对。本文将带你一步步构建一个深度学习模型,并…

某音小程序反编译签名加密静态分析

文章目录 1. 写在前面2. 抓包分析3. 逆向分析 【🏠作者主页】:吴秋霖 【💼作者介绍】:擅长爬虫与JS加密逆向分析!Python领域优质创作者、CSDN博客专家、阿里云博客专家、华为云享专家。一路走来长期坚守并致力于Python…

DeePseek结合PS!批量处理图片的方法教程

​ ​ 今天我们来聊聊如何利用deepseek和Photoshop(PS)实现图片的批量处理。 传统上,批量修改图片尺寸、分辨率等任务往往需要编写脚本或手动处理,而现在有了AI的辅助,我们可以轻松生成PS脚本,实现自动化处…

关于系统重构实践的一些思考与总结

文章目录 一、前言二、系统重构的范式1.明确目标和背景2.兼容屏蔽对上层的影响3.设计灰度迁移方案3.1 灰度策略3.2 灰度过程设计3.2.1 case1 业务逻辑变更3.2.2 case2 底层数据变更(数据平滑迁移)3.2.3 case3 在途新旧流程兼容3.2.4 case4 接口变更3.2.5…

c++解决常见内存泄漏问题——智能指针的使用及其原理

目录 前言: 1. 智能指针的使用及其原理 1. 1 智能指针的使用场景分析 1.2 RAII和智能指针的设计思路 1.3 C标准库智能指针的使用 1.3 1 auto_ptr 1.3 2 unique_ptr 1.3 3 shared_ptr(重) 1.3 4 weak_ptr 1.3 5 模拟实现删除器 2.智能指针的原…

7. k8s二进制集群之Kube ApiServer部署

创建kube工作目录(仅在主节点上创建即可)同样在我们的部署主机上创建apiserver证书请求文件根据证书文件生成apiserver证书仅接着创建TLS所需要的TOKEN创建apiserver服务的配置文件(仅在主节点上创建即可)创建apiserver服务管理配置文件对所有master节点分发证书 & TOK…

import { Component, Vue, Prop, Watch } from ‘vue-property-decorator‘

文章目录 导入部分的解释总结Vue 3 的推荐替代方案总结 你提供的代码片段是使用 vue-property-decorator 库的示例,这是一个第三方库,它提供了 Vue 组件的装饰器,使得编写类风格的 Vue 组件更加方便。以下是对代码中每个部分的详细解释&…

vite共享配置之---resolve

一、基本作用 resolve配置项主要用于指定如何解析模块路径,包括设置别名、指定扩展名、避免重复加载依赖以及指定解析条件等。通过合理配置resolve选项,可以更灵活地管理和优化项目中的模块解析逻辑。 二、具体配置选项 1、alias:用于为模…