Deepseek本地部署指南:在linux服务器部署,在mac远程web-ui访问

news/2025/3/20 5:57:50/

DeepSeek本地部署指南,特别是在Linux服务器上部署并在Mac上实现远程Web-UI访问,可以按照以下步骤进行:

一、在Linux服务器上部署DeepSeek模型

  1. 安装Ollama

    • 使用命令curl -sSfL https://ollama.com/install.sh | sh来安装Ollama。
    • 安装完成后,通过命令ollama --version验证Ollama是否安装成功。
  2. 下载并启动DeepSeek模型

    • 使用命令ollama run deepseek-r1:32b下载并启动DeepSeek R1 32B模型。请注意,还有其他参数大小的模型可供选择,如7B、70B等,根据硬件资源选择适合的模型。例如,RTX4090显卡显存为24GB,32B模型在4-bit量化下约需22GB显存,适合该硬件,且32B模型在推理基准测试中表现优异,接近70B模型的推理能力,但对硬件资源需求更低。

二、配置Ollama服务以允许远程访问

  1. 设置Ollama服务配置

    • 编辑/etc/systemd/system/ollama.service文件,添加或修改以下内容:
       

      复制代码

      [Unit]
      Description=Ollama Service
      After=network-online.target
      [Service]
      ExecStart=/usr/local/bin/ollama serve
      User=ollama
      Group=ollama
      Restart=always
      RestartSec=3
      Environment="OLLAMA_HOST=0.0.0.0"
      Environment="PATH=/usr/local/cuda/bin:/your/custom/path/bin:/usr/sbin:/usr/bin:/sbin:/bin"
      (注意:将/your/custom/path/bin替换为实际的PATH环境变量内容)
      [Install]
      WantedBy=default.target
  2. 重新加载并重启Ollama服务

    • 使用命令sudo systemctl daemon-reload重新加载服务。
    • 使用命令sudo systemctl restart ollama重启Ollama服务。
  3. 验证Ollama服务是否正常运行

    • 使用命令sudo netstat -tulpn | grep ollama验证Ollama服务是否正在监听所有网络接口。应看到类似tcp 0 0 0.0.0.0:11434 0.0.0.0:* LISTEN - ollama的输出,表明Ollama服务正在监听所有网络接口(0.0.0.0)的11434端口。
  4. 配置防火墙以允许通过端口11434的流量

    • 使用命令sudo ufw allow 11434/tcp允许通过端口11434的流量。
    • 使用命令sudo ufw reload重新加载防火墙规则。
    • 使用命令sudo ufw status检查防火墙状态,确保端口11434已开放。

三、在Mac上实现远程Web-UI访问

  1. 测试对Ollama服务的访问

    • 在Mac上打开终端,运行命令curl http://<Linux服务器IP>:11434/api/version以测试对Ollama服务的连接。应显示Ollama的版本号,表明连接成功。
  2. 使用浏览器的Page Assist Web UI插件进行远程访问

    • 在Chrome或Firefox浏览器中添加Page Assist Web UI扩展程序。
    • 进入Page Assist Web UI的设置,填写Ollama URL为http://<Linux服务器IP>:11434,并保存。
    • 在RAG设置中选择部署好的DeepSeek模型并保存,即可随时实现远程访问和调用。

四、注意事项

  1. 硬件资源:根据所选DeepSeek模型的参数大小,确保Linux服务器具有足够的硬件资源,如CPU、内存和显存。
  2. 安全性:为了确保安全性,建议对Ollama服务进行访问控制,如使用HTTPS协议、设置防火墙规则等。
  3. 数据备份:定期备份DeepSeek模型和Ollama服务的数据,以防数据丢失或损坏。
  4. 故障排查:如果遇到任何问题,可以查阅Ollama和DeepSeek的官方文档或社区论坛进行故障排查和解决。

通过以上步骤,您可以在Linux服务器上成功部署DeepSeek模型,并在Mac上实现远程Web-UI访问。


http://www.ppmy.cn/news/1580519.html

相关文章

利用knn算法实现手写数字分类

利用knn算法实现手写数字分类 1.作者介绍2.KNN算法2.1KNN&#xff08;K-Nearest Neighbors&#xff09;算法核心思想2.2KNN算法的工作流程2.3优缺点2.4 KNN算法图示介绍 3.实验过程3.1安装所需库3.2 MNIST数据集3.3 导入手写数字图像进行分类3.4 完整代码3.5 实验结果 1.作者介…

处理变长的时间序列

pytorch中torch.nn.utils.rnn相关sequence的pad和pack操作 官网…torch.nn.utils.rnn.pack_padded_sequence 知乎pack_padded_sequence 和 pad_packed_sequence 结论 ✅ pack_padded_sequence 是最好的方法&#xff08;避免无效计算&#xff0c;提升性能&#xff09; &#x…

C语言:编程设计猜数游戏

先由计算机想一个数给用户猜&#xff0c;如果猜对了&#xff0c;提示“right&#xff01;”&#xff0c;猜错了&#xff0c;提示“wrong&#xff01;及大小” 思路&#xff1a;用随机函数rand&#xff08;&#xff09;取到计算机想的数 代码&#xff1a; #include <stdio.…

Linux 命令学习记录

Linux 命令详解与进阶指南 Linux 是一种广泛使用的开源操作系统&#xff0c;掌握 Linux 命令是开发者和系统管理员的必备技能。本文将详细介绍 Linux 的常用命令&#xff0c;并涵盖一些高级进阶技巧&#xff0c;帮助你更高效地使用 Linux。 目录 基础命令 文件与目录操作文本…

[特殊字符] Blender + 在线渲染农场加速渲染|渲染 101 极简指南

⚡ 渲染 101&#xff1a;为什么需要加速&#xff1f; 耗时原因&#xff1a;场景复杂度↑&#xff08;模型 / 材质 / 灯光&#xff09; 渲染时间↑本地局限&#xff1a;单设备性能弱、硬件占用久核心方案&#xff1a;分布式计算&#xff08;多设备并行&#xff09; 自动化流程 …

JVM G1内存管理核心概念解析:Region、Card Table、CSet与RSet

一、Region&#xff08;堆分区&#xff09; 定义&#xff1a;Region是G1垃圾回收器中内存管理的最小单元&#xff0c;将传统连续堆划分为多个独立区域&#xff08;默认2048个&#xff09;&#xff0c;每个大小在1MB-32MB之间&#xff0c;支持动态调整。 核心特性&#xff1a;…

如何判断 MSF 的 Payload 是 Staged 还是 Stageless(含 Meterpreter 与普通 Shell 对比)

在渗透测试领域&#xff0c;Metasploit Framework&#xff08;MSF&#xff09;的 msfvenom 工具是生成 Payload&#xff08;载荷&#xff09;的核心利器。然而&#xff0c;当我们选择 Payload 时&#xff0c;经常会遇到一个问题&#xff1a;这个 Payload 是 Staged&#xff08;…

学习单片机需要多长时间才能进行简单的项目开发?

之前有老铁问我&#xff0c;学单片机到底要多久&#xff0c;才能进行简单的项目开发&#xff1f;是三个月速成&#xff0c;还是三年磨一剑&#xff1f; 今天咱们就来聊聊这个话题&#xff0c;我不是什么高高在上的专家&#xff0c;就是个踩过无数坑、烧过几块板子的“技术老友”…