deepseek部署在本地详细教程

news/2025/2/20 18:45:44/

最近,DeepSeek爆火,先进的算法、卓越的能力,表现出众,其凭一己之力推动国内Ai大模型跨越式发展。作为一款现象级的Ai产品,用户量暴增,最近服务器又被攻击,使用DeepSeek,经常出现服务器繁忙,将DeepSeek部署在本地电脑就方便很多。

将DeepSeek部署在本地电脑,只需三步即可完成。

一、环境准备

(一)硬件需求

最低配置:CPU(支持AVX2指令集)+ 16GB内存 + 30GB存储。
推荐配置:NVIDIA GPU(RTX 3090或更高)+ 32GB内存 + 50GB存储。

(二)软件依赖

操作系统:Windows、macOS或Linux。
Docker:如果使用Open Web UI,需要安装Docker。

二、下载安装 Ollama

部署DeepSeek要用到 Ollama,它支持多种大模型。

Ollama官网:Ollama

下载安装Ollama,macOS、Linux 和 Windows都可以下载安装,选用Windows系统。

访问Ollama官网:前往Ollama官网,点击“Download”按钮。
下载安装包:根据你的操作系统选择对应的安装包。下载完成后,直接双击安装文件并按照提示完成安装。默认都是安装到C盘
验证安装:安装完成后,在终端输入以下命令,检查Ollama版本:

如果输出版本号(例如ollama version is 0.5.7),则说明安装成功。

二、下载 DeepSeek-R1

1、进入Ollama官网,找到Models。

2、进入就可以看到deepseek-r1模型,如果没有,在搜索栏搜索即可。

3、选择对应的模型来下载,1.5b、7b、8b、14b、32b、70b或671b,这里有很多版本可选,模型越大,要求电脑内存、显卡等的配置越高。老宅这台机子是4060的显卡,选择8b的模型。

选择模型版本:
  • 入门级:1.5B版本,适合初步测试。
  • 中端:7B或8B版本,适合大多数消费级GPU。
  • 高性能:14B、32B或70B版本,适合高端GPU。

4、找到Windows【开始菜单】,鼠标右键点击【终端管理员】。

5、复制下边8b的代码。

6、粘贴到PowerShell(管理员)运行框,然后回车。(这里会默认安装在C盘,注意C盘空间)

出现下载等待窗口,等待下载完成。

7、下载完成后稍微等待,看到success,即部署完成。

8、部署完成,send a message,输入内容即可开始对话。

启动Ollama服务:

在终端运行以下命令启动Ollama服务:

ollama serve

    服务启动后,可以通过访问 http://localhost:11434 来与模型进行交互。

    三、Chatbox前端搭建

    通过第二步的操作,已经部署好DeepSeek,但每次使用都要在终端管理员里操作,相当繁琐。这里可以借助Chatbox,实现网页或客户端操作。

    1、下载安装Chatbox

    Chatbox官网:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

    进入官网下载安装Chatbox客户端。

    设置中文

    2、点击设置,选择Ollama API

    3、选择安装好的deepseek r1模型,保存即可

    4、部署完成,就可以正常使用了。

    通过以上三步,DeepSeek就部署在本地电脑上了,有些不方便公开的数据,比如实验数据,可以通过部署大模型到本地的方式进行处理,不用担心数据泄露。

    DeepSeek 登顶苹果中国地区和美国地区应用商店下载排行榜,在美区下载榜上超越了 ChatGPT。其推理能力的强大就不多说了,留给大家自行探索。

    四、使用Open Web UI(可选)


    为了更直观地与DeepSeek模型进行交互,可以使用Open Web UI。以下是安装和使用步骤:

    安装Docker:确保你的机器上已安装Docker。
    运行Open Web UI:
    在终端运行以下命令安装并启动Open Web UI:
    docker run -d -p 3000:8080 \
      --add-host=host.docker.internal:host-gateway \
      -v open-webui:/app/backend/data \
      --name open-webui \
      --restart always \
      ghcr.io/open-webui/open-webui:main

    安装完成后,访问 http://localhost:3000,选择deepseek-r1:latest模型即可开始使用。

    你可以在本地成功部署DeepSeek模型,并通过Ollama、Open Web UI、chartBox与模型进行交互。 

    五、性能优化与资源管理


    资源分配:根据硬件配置选择合适的模型版本。较小的模型(如1.5B到14B)在标准硬件上表现良好,而较大的模型(如32B和70B)需要更强大的GPU支持。
    内存管理:确保系统有足够的内存和存储空间,以避免运行时出现资源不足的问题。


    六、常见问题及解决方法


    模型下载超时:如果在下载模型时出现超时问题,可以尝试重新运行下载命令。
    服务启动失败:确保Ollama服务已正确安装并启动。如果服务启动失败,可以尝试重启Ollama服务。

    七、ollama常用命令:

    退出模型:/bye

    列出模型:

    删除模型:


    http://www.ppmy.cn/news/1573205.html

    相关文章

    Web项目测试专题(七)安全性测试

    概述: 安全性测试旨在确保Web应用在设计和实现过程中能够抵御各种安全威胁,保护用户数据和系统资源。 步骤: 身份验证和授权:测试用户登录、权限管理和会话管理机制,确保只有授权用户能够访问特定资源。 数据加密…

    【k8s应用管理】kubernetes 安全机制

    文章目录 Kubernetes 安全机制安全机制概述认证(Authentication)认证方式需要认证的访问类型安全性说明证书颁发kubeconfig 文件Service Account(SA)1. 核心概念2. SA 组成3. Pod 挂载 SA Secret 与 SA 的关系1. Secret 类型2. 查…

    vue2.x与vue3.x生命周期的比较

    vue2.x 生命周期图示: new Vue() | v Init Events & Lifecycle | v beforeCreate | v created | v beforeMount | v mounted | v beforeUpdate (when data changes) | v updated | v beforeDestroy (when vm.…

    【Elasticsearch】标准化器(Normalizers)

    Elasticsearch 的标准化器(Normalizers)是一种特殊的分析器,用于对keyword类型字段的文本进行统一的格式化处理。与普通分析器不同,标准化器只能产生单个标记(token),因此它不包含分词器&#x…

    python学opencv|读取图像(六十八)使用cv2.Canny()函数实现图像边缘检测

    【1】引言 前序学习进程中,在对图像进行边缘识别的基础上,先后进行了边缘轮廓绘制,矩形标注、圆形标注和凸包标注。相关文章包括且不限于: python学opencv|读取图像(六十四)使用cv2.findContours()函数cv…

    git如何下载指定版本

    要使用Git下载指定版本,可以通过以下步骤进行操作‌: ‌1. 使用Git命令行下载指定版本‌: 1.1 首先,使用git clone命令克隆整个git库到本地。例如:git clone [库的URL]。这将下载最新的代码到本地。‌ 1.2 进入克隆…

    无人机飞手培训机构招生宣传技术详解

    无人机飞手培训机构招生宣传技术详解如下: 一、行业背景与需求 1. 广泛应用:无人机在航拍、农业、环境监测、地理测绘、电力巡检、公安、交通、救援等多个领域得到广泛应用,对无人机操作员的需求持续增长。 2. 政策推动:政府对…

    【区块链】零知识证明基础概念详解

    🌈个人主页: 鑫宝Code 🔥热门专栏: 闲话杂谈| 炫酷HTML | JavaScript基础 ​💫个人格言: "如无必要,勿增实体" 文章目录 零知识证明基础概念详解引言1. 零知识证明的定义与特性1.1 基本定义1.2 三个核心…