windows+ollama+deepseek+openwebui快速实现本地部署Deepseek

embedded/2025/3/22 2:09:56/
aidu_pl">

文章目录

  • 1. DeepSeek-R1全版本及硬件要求
  • 2. 安装Ollama
    • 2.1 官方下载(不推荐)
    • 2.2 国内镜像加速(推荐)
    • 2.3 验证安装
  • 3. DeepSeek模型部署
    • 3.1 拉取模型
    • 3.2 测试运行
  • 4. Open WebUI可视化部署
    • 4.1 安装包
    • 4.2 启动服务
    • 4.3 访问界面
  • 5. 结论
  • 6. 实际参数参考
    • 6.1 我的电脑配置
    • 6.2 我的版本选择
    • 6.3 实际运行效果


1. DeepSeek-R1全版本及硬件要求

模型版本内存需求显存需求适用场景
1.5B≥8GB无需独立显卡低配设备,仅支持文本基础问答, 例如办公电脑
7B/8B≥16GB≥8GB(推荐NVIDIA 3060+)主流配置,支持代码生成/复杂推理, 例如办公室专用主机
14B≥32GB≥16GB(推荐NVIDIA 4090)高性能需求,支持长文本/多轮对话, 例如小企业专用服务器
32B/70B/671B≥64GB≥24GB专业显卡企业级服务器,需专业运维, 例如大公司专用服务器

2. 安装Ollama

2.1 官方下载(不推荐)

访问Ollama官网 -> 点击 Download for Windows(745MB,支持Win10/11 64位) -> 双击安装包安装
在这里插入图片描述


2.2 国内镜像加速(推荐)

国内下载直接搜索即可, 我是在数字指南下载的国内镜像包

在这里插入图片描述


2.3 验证安装

# 以管理员身份打开PowerShell
ollama --version
# 显示类似"ollama version 0.5.7"即成功

如果没安装成功会显示如下

# 以管理员身份打开PowerShell
ollama --version
'ollama' 不是内部或外部命令,也不是可运行的程序或批处理文件。

3. DeepSeek模型部署

3.1 拉取模型

根据硬件配置选择版本:

ollama run deepseek-r1:1.5b

首次运行会自动下载模型(约1.1G), 若下载中断可重新执行命令(支持断点续传)

3.2 测试运行

在交互界面输入测试指令:

>>> 用Python实现快速排序

若模型返回完整代码即部署成功


注意, 模型安装好最开始是使用cmd界面运行的, 非常丑陋, 所以我们需要部署可视化.


4. Open WebUI可视化部署

说明: Open WebUI是基于Python的, 所以只需要在Python环境下安装包即可

4.1 安装包

pip install open-webui -i https://mirrors.aliyun.com/pypi/simple/

4.2 启动服务

open-webui serve

4.3 访问界面

浏览器打开 http://localhost:8080,完成以下配置:

  • 注册管理员账号
  • 进入 Settings → Model,确认模型路径为deepseek-r1:7b
  • 开始对话

5. 结论

本地部署DeepSeek适合对数据隐私、高频调用、离线能力或深度定制有强需求的场景,尤其推荐金融、医疗、科研机构及技术实力较强的企业采用。


而中小型企业或轻量级需求者,云端服务仍是更经济便捷的选择


6. 实际参数参考

6.1 我的电脑配置

办公电脑, CPU和显卡都是很差的那种
在这里插入图片描述
在这里插入图片描述


6.2 我的版本选择

deepseek-r1:1.5b

  • 为什么选择最低配版本?
    :因为7b我都带不动

6.3 实际运行效果

  1. 卡不卡
    极度卡顿, 只要有任何一个人问问题, 我的CPU立马爆满, 回答速度也非常慢, 经常卡顿十几分钟

  1. 无法联网问题
    该问题可以通过使用ChatBox解决, 因为它已经配置好了
    但是如果你安装的是Open WebUI, 那将会变成一个非常棘手的问题, 因为你需要另外再配置一套搜索服务, 搞不好还得花钱

  1. 同事如何使用
    如果你部署的是Open WebUI, 那么你同事直接打开浏览器, 输入地址就可以访问, 而且界面还挺好看很专业
    如果你选择了ChatBox, 那你同事也需要安装ChatBox来使用了

http://www.ppmy.cn/embedded/174572.html

相关文章

大模型应用中如何保持实时性和多人对话一致性问题?

环境: 大模型 问题描述: 大模型应用中如何保持实时性和多人对话一致性问题? 解决方案: 在实时性和多人对话一致性问题上,你的总结已较为全面,但可进一步细化技术细节、补充前沿方案并强化落地权衡。以…

Spring Boot 配置属性 (Configuration Properties) 详解:优雅地管理应用配置

引言 Spring Boot 的 配置属性 (Configuration Properties) 是其另一个核心特性,它提供了一种 类型安全、结构化 的方式来管理应用的配置信息。 与自动配置相辅相成,配置属性允许开发者 以声明式的方式将外部配置 (如 properties 文件、YAML 文件、环境…

文体制造行业的现状 内检实验室lims系统在文体制造行业的应用

在文体用品制造业,产品质量的控制是企业生存和发展的关键。随着市场竞争的日益激烈,企业对产品的品质要求也越来越高。然而,传统实验室管理方式存在着诸多问题,如数据不准确、流程不规范、效率低下等。这些问题严重影响了企业的生…

数学建模 第三节

目录 前言 一 钻井布局问题 第一问分析 第二问分析 总结 前言 这里讲述99年的钻井布局问题,利用这个问题讲述模型优化,LINGO,MATLAB的使用 一 钻井布局问题 这个是钻井布局的原题,坐标的位置为 a [0.50,1.41,3.00,3.37,3…

微信小程序计算属性与监听器:miniprogram-computed

小程序框架没有提供计算属性相关的 api ,但是官方为开发者提供了拓展工具库 miniprogram-computed。 该工具库提供了两个功能: 计算属性 computed监听器 watch 一、安装 miniprogram-computed 在项目的根目录下,使用如下命令,…

汇川EASY系列之以太网通讯(MODBUS_TCP做主站)

汇川Easy系列以太网通讯中(MODBUSTCP,plc做主站),终于可以不用使用指令就可以完成了,全程通过简单的配置就可通讯。本文将通过EASY系列PLC与调试助手之间完成此操作。具体演示如下; 关于主站和从站的介绍 A/请求:即主动方 向被动方发送的一个要求的信息。 B/主站:发…

v-form标签里的:rules有什么作用。如何定义。

在 Vue 项目中,如果你使用的是 Element UI 或 Element Plus 组件库,el-form 标签上的 :rules 是用来进行表单验证的 作用 :rules 用于为表单中的表单项(el-form-item)定义验证规则。当用户在表单中输入数据时,这些规则…

基于Spring Boot的售楼管理系统的设计与实现(LW+源码+讲解)

专注于大学生项目实战开发,讲解,毕业答疑辅导,欢迎高校老师/同行前辈交流合作✌。 技术范围:SpringBoot、Vue、SSM、HLMT、小程序、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、安卓app、大数据、物联网、机器学习等设计与开发。 主要内容:…