【DeepSeek-01】无需 Docker,千元级电脑本地部署 Ollama + DeepSeek-R1:14b + Chatbox

embedded/2025/2/11 11:29:16/

文章目录

  • DeepSeek-01:无需 Docker,千元级电脑本地部署 Ollama + DeepSeek-R1:14b + Chatbox
    • 本机环境
    • Ollama 安装步骤
      • 1. 下载 Ollama
      • 2. 安装
      • 3. 初始化配置
      • 4. 启动 Ollama 服务
    • DeepSeek-R1:14b 安装步骤
      • 1. 下载deepseek r1 14b模型
      • 2. 安装依赖项
      • 3. 下载模型配置文件
      • 4. 配置 Ollama 模型
      • 5. 启动 DeepSeek-R1 服务
    • Chatbox 安装步骤
      • 1. 下载 Chatbox
      • 2. 安装依赖项
      • 3. 配置 Chatbox
      • 4. 启动 Chatbox
    • 性能体验
    • 总结

DeepSeek-01:无需 Docker,千元级电脑本地部署 Ollama + DeepSeek-R1:14b + Chatbox

在这里插入图片描述

本机环境

码农上班忙,断更很长时间。deepseek火了一个春节,安奈不住,写几篇博客,纪念一下。初步目标是在本机部署deepseek r1:32b,但是下载了30%左右时,提示失败,遂放弃32b,改为deepseek r1:14b。
在这里插入图片描述

家人们,看看我的配置,不是30叉叉、也不是40叉叉。但是运行14b,非常丝滑。

  • 操作系统:Windows 10
  • CPU:Intel i5-13400
  • GPU:NVIDIA RTX 2080 Ti 22G
  • 内存:32GB DDR4
  • CUDA:12.4

强调:不安装docker、不安装docker。怎么轻量,就怎么操作。

Ollama 安装步骤

Ollama 是一个轻量级的模型托管工具,支持多种 AI 模型运行。以下是安装步骤:

1. 下载 Ollama

打开浏览器访问 ollama.ai,下载对应平台的exe安装包。

2. 安装

双击exe按照提示默认安装即可。

3. 初始化配置

无需额外设置。

4. 启动 Ollama 服务

启动Power Shell,通过命令行先查询Ollama是否安装成功:

ollama --version

如果显示了版本号,则表示ollama安装成功:

ollama version is 0.5.7

启动服务后,可以继续输入命令,直接在ollama仓库下载deepseek r1:14b。
14b模型大小大约9G,预计1个小时。注意:32b模型大约19G。
所以,下载前,请确保有足够的磁盘空间。

DeepSeek-R1:14b 安装步骤

DeepSeek-R1 是一个基于 LLaMA 的开源 AI 模型,以下是本地部署步骤:

deepseek_r1_14b_50">1. 下载deepseek r1 14b模型

继续在已启动ollama的PowerShell中输入命令:

ollama run deepseek-r1:14b

开始自动下载14b模型,进度如下:
在这里插入图片描述

模型保存目录:

C:\user\登录用户名.ollama\models

大家可以自行去目录查看模型。
下载完成且成功后,会提示如下信息:

Send a message(/? for help)

当然,也可以通过输入ollama list查询已下载的模型。如下图:
在这里插入图片描述

2. 安装依赖项

无需下载安装。

3. 下载模型配置文件

未下载、未设置。

4. 配置 Ollama 模型

使用默认配置,未进行修改。

5. 启动 DeepSeek-R1 服务

以后重启电脑,或者要启动deepseek r1服务,使用如下命令:

ollama run deepseek-r1:14b

是不是很眼熟?对了,这就是下载模型的命令,反正每次我都使用这个命令启动服务。

至此,可以使用CLI方式进行多轮对话了。
在这里插入图片描述

Chatbox 安装步骤

Chatbox 是一个简单易用的聊天界面工具,以下是安装和配置步骤:

1. 下载 Chatbox

浏览器里登录chatbox官网,下载64bit安装包。
按照默认提示进行安装即可。

2. 安装依赖项

此种方式不需要额外安装依赖。

3. 配置 Chatbox

可视化交互界面进行设置。选择“使用自己的API Key或本地模型”,出现“选择并配置AI模型提供方”。
这里有Ollama API、DeepSeek API等多个选项。请选择Ollama API。是的,不要惊讶,就是Ollama API。不要问我为啥知道,因为我选过另外一个选项……都是泪
在这里插入图片描述
在这里插入图片描述

之后出现的对话框API域名处设置为:

http://localhost:11434

模型处,选择:

deepseek-r1:14b

在这里插入图片描述

至此,安装完毕。本机轻松搞定一个AI对话机器人。
在这里插入图片描述

4. 启动 Chatbox

按开始菜单点击Chatbox快捷方式即可,在Chatbox里就可以自由聊天,体验deepseek-r1:14b带来的丝滑体验了。

性能体验

  • Ollama:轻量级,适合快速响应的小模型。
  • DeepSeek-R1:14b:推理速度较非常快,但生成结果更自然。
  • Chatbox:界面友好,支持多种模型切换。

总结

通过本次部署,我们成功在本地环境中搭建了 Ollama、DeepSeek-R1:14b 和 Chatbox 系统。虽然硬件配置为千元级,但通过合理的优化和配置,依然可以流畅运行大语言模型,并提供良好的交互体验。未来可以通过以下方式进一步改进:

  • 集成更多 AI 模型,丰富应用场景。

如果你有任何问题或需要进一步的帮助,请随时留言讨论!


http://www.ppmy.cn/embedded/161316.html

相关文章

深入探索人工智能的未来:DeepSeek R1与蓝耘智算平台的完美结合

在当今数字化时代,人工智能(AI)和机器学习(ML)正以前所未有的速度改变着我们的生活和工作方式。从智能语音助手到自动驾驶汽车,从精准医疗到金融风险预测,AI的应用无处不在。深度学习作为AI的核…

单片机之基本元器件的工作原理

一、二极管 二极管的工作原理 二极管是一种由P型半导体和N型半导体结合形成的PN结器件,具有单向导电性。 1. PN结形成 P型半导体:掺入三价元素,形成空穴作为多数载流子。N型半导体:掺入五价元素,形成自由电子作为多…

低空经济探索,无人机春季研学活动详解

低空经济探索与无人机春季研学活动是当前科技教育领域的一大热点,以下是对该活动的详细解析: 一、低空经济探索背景 低空经济是以无人机、轻型飞机等低空飞行器为核心,涵盖制造、运营、服务等多个环节的新兴经济形态。随着科技的进步和政策…

USB子系统学习(四)用户态下使用libusb读取鼠标数据

文章目录 1、声明2、HID协议2.1、描述符2.2、鼠标数据格式 3、应用程序4、编译应用程序5、测试6、其它 1、声明 本文是在学习韦东山《驱动大全》USB子系统时,为梳理知识点和自己回看而记录,全部内容高度复制粘贴。 韦老师的《驱动大全》:商…

如何清理浏览器一段时间以前的缓存

浏览器缓存是浏览器为了提高网页加载速度而自动存储的数据,包括图片、脚本、样式表等文件。然而,随着时间的推移,这些缓存数据可能会占用大量磁盘空间,甚至影响浏览器的性能和稳定性。因此,定期清理浏览器缓存是一个良…

open3d将某一时间序列下的彩色图和深度图批量转换成点云(python)

👑主页:吾名招财 👓简介:工科学硕,研究方向机器视觉,爱好较广泛… ​💫签名:面朝大海,春暖花开! open3d将某一时间序列下的彩色图和深度图批量转换成点云(python) 1,引言2,相关数据集资源如下3,彩色图、深度图和相机内参4,python代码5,生成的彩色点云效果如…

机器学习,深度学习,神经网络,深度神经网络

人工智能包含机器学习,机器学习包含深度学习(是其中比较重要的分支)。深度学习源自于人工神经网络的研究,但是并不完全等于传统神经网络。 神经网络与深度神经网络的区别在于隐藏层级,通常两层或两层以上隐藏层的网络叫…

DeepSeek开源多模态大模型Janus-Pro部署

DeepSeek多模态大模型部署 请自行根据电脑配置选择合适环境配置安装conda以及gitJanus 项目以及依赖安装运行cpu运行gpu运行 进入ui界面 请自行根据电脑配置选择合适 本人家用电脑为1060,因此部署的7B模型。配置高的可以考虑更大参数的模型。 环境配置 安装conda…