DeepSeek-R1本地化部署(Mac)

devtools/2025/3/17 0:46:35/

一、下载 Ollama

本地化部署需要用到 Ollama,它能支持很多大模型。官方网站:https://ollama.com/

点击 Download 即可,支持macOS,Linux 和 Windows;我下载的是 mac 版本,要求macOS 11 Big Sur or later,Ollama是跳转到github去下载的,如果下载不了可能要借助科学上网。

下载的是个压缩包,直接双击就可以解压出Ollama.app,点击运行即可安装

安装成功之后,ollama会在后台运行,启动命令行,输入ollama

出现以上页面即表示安装成功

二、下载DeepSeek-R1

还是进入ollama.com的页面,点击Models

下载deepseek-r1,

deepseek-r1有很多个版本,1.5b,7b,8b,14b,32b,70b,671b,分别代表模型不同的参数数量。

  • B = Billion(十亿参数):表示模型的参数量级,直接影响计算复杂度和显存占用。
    • DeepSeek 1.5B:15亿参数(小型模型,适合轻量级任务)
    • DeepSeek 7B:70亿参数(主流规模,平衡性能与资源)
    • DeepSeek 70B:700亿参数(高性能需求场景)
    • DeepSeek 671B:6710亿参数(超大规模,对标PaLM/GPT-4)

每个版本对应所需的内存大小都不一样,如果你电脑运行内存为8G那可以下载1.5b,7b,8b的蒸馏后的模型;如果你电脑运行内存为16G那可以下载14b的蒸馏后的模型,我这里选择14b的模型。

使用ollama run deepseek-r1:14b 进行下载,在命令行里面输入:

ollama run deepseek-r1:14b

使用ollama list 查看是否成功下载了模型

输入ollama run deepseek-r1:14b运行模型,启动成功后,就可以输入我们想问的问题,模型首先会进行深度思考(也就是think标签包含的地方),思考结束后会反馈我们问题的结果。在>>>之后输入想要咨询的 问题,模型回答的速度取决电脑的性能。

使用快捷键Ctrl + d 或者在>>>之后输入 /bye即可退出对话模式。

## 删除模型
ollama rm deepseek-r1:14b
## 停止模型
ollama stop deepseek-r1:14b

三、web页面的访问

我们通过ollama下载模型后,可以在命令行使用deepseek了,但是命令行的形式还是有些不友好,我们可以借助chatBox,或者Open-WebUI,只要接入ollama的Api就可以使用了。

1、Open-WebUI

Open WebUI是一个可扩展、功能丰富、用户友好的自托管AI平台,旨在完全离线运行。它支持各种LLM运行程序,如Ollama和OpenAI兼容的API,内置RAG推理引擎,使其成为一个强大的AI部署解决方案,本地需要安装Python3(版本3.11~3.13以下)。

安装 Open-WebUI需要使用pip进行安装,安装需要一定时间

pip install open-webui
### 如网络太差,可以使用国内的镜像下载
pip install open-webui -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com

如果 pip 版本较低,可以更新下

python3 -m pip install --upgrade pip

使用如下命令启动open-webui服务,启动需要一定时间

open-webui serve

后使用浏览器输入http://127.0.0.1:8080/登录服务,注意端口的占用冲突,页面如下:

点击开始使用,第一次使用需要注册用户名、邮件以及密码,这都是存在本地的,可以放心填写。

注册完毕后,如果本地已经运行了deepseek-r1,它可以自动识别本地已经安装的deepseek r1大模型,

在对话框里面输入内容,即可与deepseek-r1展开对话

2、ChatBox

Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。

我这里下载的mac版本,成功安装启动后,点击左下角的设置

模型提供方选择Ollama API

模型选择本地部署好的deepseek-r1:14b,点击保存,即可以开始对话

最后:蒸馏模型不同规格的选择,需要结合自己电脑的配置来选择,不合适的模型会导致电脑过载,对话回答的速度和效果问题都会很差。我电脑内存16GB,以为14b能扛得住,结果安装之后,对话巨慢!后面安装了8b,运行起来速度就快多了,但是通过页面的返回速度会变慢。


http://www.ppmy.cn/devtools/167684.html

相关文章

牛客python蓝桥杯11-32(自用)

11 import os import sysdef huiwen(str):length len(str)# if length 0:# return -1result []for i in range(length-1): # 0 - length-2for j in range(i2,length1):# 取出从索引 i 到 j-1 的子串s str[i:j]# 正序倒序if s s[::-1]:result.append(len(s))if result…

Nanobrowser:开源AI自动化神器 OpenAI Operator替代品

Nanobrowser介绍 Nanobrowser 是一款基于 AI 驱动的 Web 自动化开源工具,以 Chrome 扩展程序的形式运行,让用户只需利用自己的 LLM API 密钥便能轻松启动多代理工作流,成为 OpenAI Operator 的免费替代方案。它不仅支持灵活接入您喜欢的 LLM…

【Python】为什么要写__init__.py

文章目录 PackageA(__init__特性)应该往__init__.py里放什么东西?1、包的初始化2、管理包的公共接口3、包的信息 正常我们直接导入就可以执行,但是在package的时候,有一种__init__.py的特殊存在 引入moduleA.py,执行main.py&…

SQL--算术运算符

过滤信息:where SELECT * FROM employees where department_id90; where紧随from语句 算术运算符: 加法运算符() 用于计算两个数值的和。 示例: SELECT 1001 FROM dual; /*结果为101*/ SELECT 100A FROM dual; /*…

大数据学习(62)- Hadoop-yarn

&&大数据学习&& 🔥系列专栏: 👑哲学语录: 承认自己的无知,乃是开启智慧的大门 💖如果觉得博主的文章还不错的话,请点赞👍收藏⭐️留言📝支持一下博主哦&#x1f91…

蚂蚁灵波科技挂牌,蚂蚁具身智能大动作怎么看?

首先,蚂蚁灵波科技的挂牌是蚂蚁集团拓展具身智能和机器人业务的重要举措。具身智能作为人工智能与机器人学交叉的前沿领域,具有广阔的发展前景和应用潜力。蚂蚁集团通过设立灵波科技,将加大在具身智能领域的研发投入,推动关键技术…

UE4-UE5虚幻引擎,前置学习一--Console日志输出经常崩溃,有什么好的解决办法

有些差异 这么牛逼的引擎,居然有这种入门级别的问题,一触发清理,大概率(80%)会崩溃 无论虚幻5还是UE4都有这个问题,挺烦人的 实在忍不了了,这次,今天 就想问问有什么好的处理方法么?&#x…

基于Java+MySQL实现的医药销售管理系统

医药销售管理系统 开发环境和开发工具 操作系统:win8.1 开发环境:Mysql、Web 开发工具:Workbench、Eclipse、JDBC 功能需求分析 员工有权查看、添加会员,查看、添加供应商,查询药品(输入药品编号或名称…