【Ubuntu】本地部署Deep Seek(深度求索)大模型的保姆级教程 | 详细教程

news/2025/2/9 9:51:15/

杭州深度求索人工智能基础技术研究有限公司(简称“深度求索”或“DeepSeek”),成立于2023年,DeepSeek是一家专注通用人工智能(AGI)中国科技公司,主攻大模型研发与应用,经营范围包括技术服务、技术开发、软件开发等DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费使用。支持联网搜索深度思考模式。

总结AI + 国产 + 免费 + 开源 + 强大

目录

1 环境要求

■ OS

2 安装Ollama

①安装

安装方式一

安装方式二

安装方式三

安装方式四

②验证

DeepSeek%E6%A8%A1%E5%9E%8B-toc" name="tableOfContents" style="margin-left:0px">3 下载并部署DeepSeek模型

①启动Ollama

②下载模型

③访问

4 可视化

①下载

②添加执行权限

③运行

④设置

⑤交互



随着AI的飞速发展,本地部署大模型的需求也日益增加。DeepSeek大模型作为一款开源性能强大的大语言模型,提供了灵活的本地部署方案。Deep Seek大模型的本地部署不仅提升了数据安全隐私保护,还优化了性能降低了长期成本,并提供了更高的自主性和法规遵从性。对于寻求更高控制权、更低延迟和更安全数据处理的企业和组织来说,本地部署是一个极具吸引力的选择。然而,这也要求组织具备相应的IT基础设施和运维能力,以确保部署的顺利进行和后续的维护。

综上,本地部署具有以下的优点

 数据安全与隐私保护

 减少延迟和提高响应速度

 降低成本

 自主可控

 法规遵从

 高效利用资源

以下是详细的DeepSeek大模型本地部署的方法。

首先,需要说的是,小参数版本模型效果一般,如果真正落地部署应用的话,建议使用满血版本模型(671B版本)

接下来,开始动手部署吧。

1 环境要求

 OS

操作系统:Windows、macOS或Linux

2 安装Ollama

Ollama是一个开源的大型语言模型(LLM)推理服务器,为用户提供了灵活、安全和高性能的语言模型推理解决方案。

Ollama的主要特点是它能够运行多种类型的大型语言模型,包括但不限于Alpaca、Llama、Falcon、Mistral等,而无需将模型上传至服务器。这意味着用户可以直接在本地或私有云环境中运行这些模型避免了数据传输带来的延迟和隐私问题

①安装

安装方式一

访问官网Ollama,点击“Download”按钮。

全自动化脚本,要求网络状态良好。使用如下命令安装。

下载与安装

curl -fsSL https://ollama.com/install.sh | sh

安装方式二

分步安装,命令如下。

单独下载脚本

curl -fsSL https://ollama.com/install.sh > install.sh

添加执行权限

chmod +x install.sh

手动执行脚本

./install.sh

【报错】curl: (92) HTTP/2 stream 1 was not closed cleanly before end of the underlying stream                                            

【报错】curl: (35) OpenSSL SSL_connect: SSL_ERROR_SYSCALL in connection to github.com:443

上述报错的处理方法可参考:【Ubuntu】安装和使用Ollama的报错处理集合-CSDN博客

安装方式三

通过lscpu查看架构。选择对应的安装包。

下载

打开https://github.com/ollama/ollama/releases/,下载ollama-linux-amd64.tgz到本地。

解压

sudo tar -zxf ollama-linux-amd64.tgz -C /usr/local

解压成功后在/usr/local中打开bin和lib文件夹会出现ollama相关的文件

添加执行权限

sudo chmod +x /usr/local/bin/ollama 

安装方式四

安装ModelScope

pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple

下载

modelscope download --model=modelscope/ollama-linux --local_dir ./ollama-linux --revision v0.5.8

安装ollama

# 运行ollama安装脚本cd ollama-linuxsudo chmod 777 ./ollama-modelscope-install.sh./ollama-modelscope-install.sh

②验证

安装完成后,在终端输入以下命令,检查Ollama版本。

ollama --version

如果能够正确输出版本号,则说明安装成功。

综上,建议使用安装方法四进行安装。

DeepSeek%E6%A8%A1%E5%9E%8B" name="3%20%E4%B8%8B%E8%BD%BD%E5%B9%B6%E9%83%A8%E7%BD%B2DeepSeek%E6%A8%A1%E5%9E%8B" style="margin-left:0pt; margin-right:0pt; text-align:left">3 下载并部署DeepSeek模型

Ollama支持多种DeepSeek模型的版本,用户可以根据硬件配置选择合适的模型。

 入门级:1.5B版本,适合进行初步测试。

 :7B或8B版本,适合大多数消费级GPU。

 高性能:14B、32B或70B版本,适合高端GPU。

注意:根据硬件配置选择合适的模型版本。较小的模型在标准硬件上表现良好,而较大的模型需要更强大的GPU支持;确保系统有足够的内存和存储空间,以避免运行时出现资源不足的问题。

①启动Ollama

在终端输入以下命令启动Ollama服务。

ollama serve# 或者ollama start

②下载模型

Ollama官网搜索deepseek-r1,查看相关模型。

下载模型。

ollama pull deepseek-r1:1.5b

下载其他的模型。

ollama pull deepseek-r1:7bollama pull deepseek-r1:8bollama pull deepseek-r1:14bollama pull deepseek-r1:32bollama pull deepseek-r1:70bollama pull deepseek-r1:671b

另起一个窗口,在终端输入以下命令下载并运行DeepSeek模型。

ollama run deepseek-r1:1.5b

通过ollama list命令可查看已经部署的模型。

通过ollama rm deepseek-r1:1.5b命令可以删除指定的模型。

③访问

通过访问 http://localhost:11434 看到Ollama is running信息。

4 可视化

部署chatbox可以实现UI界面的本地大模型交互。

可视化工具Chatbox官网:Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载

①下载

点击上图中的下载按钮,下载Chatbox-1.9.8-x86_64.AppImage到本地。

②添加执行权限

cd 到Chatbox-1.9.8-x86_64.AppImage所在路径。

chmod +x Chatbox-1.9.8-x86_64.AppImage

③运行

使用如下命令运行Chatbox。

./Chatbox-1.9.8-x86_64.AppImage

运行成功后,界面如下图。

④设置

点击保存即可。

⑤交互

设置完成后,就可以进行正常的交互了。

如果在部署过程中遇到问题,在评论区留言说明,可以一起解决哈。

如果部署成功了,欢迎留言支持哈。

至此,本文的内容就结束了。


http://www.ppmy.cn/news/1570551.html

相关文章

初始JavaEE篇 —— Spring Web MVC入门(下)

找往期文章包括但不限于本期文章中不懂的知识点: 个人主页:我要学编程程(ಥ_ಥ)-CSDN博客 所属专栏:JavaEE 初始JavaEE篇 —— Spring Web MVC入门(上) 在上篇文章中,我们学习了一些注解的使用、Postman模…

Android原生开发问题汇总

Fragment顶部出现一个白条怎么办?父类布局搞事情。 layer-list被拉伸问题 Android之 ImageView android:src和tools:src的区别是什么? Android运行时权限的总结,以及EasyPermissions框架的使用 Android Studio添加EasyPemissions Android中module怎…

python基础入门:3.2字典(Dict)与集合(Set)

Python高效数据管理:字典与集合深度剖析 # 快速导航 config {"数据结构": "字典", "特性": ["键值对", "快速查找"]} unique_nums {1, 2, 3, 5, 8} # 集合自动去重一、字典核心操作全解 1. 键值对基础操作 …

MySQL数据库(七)SQL 优化

一 插入数据 采用方法 1 批量插入 2 手动提交事务 3 主键顺序插入 4* 使用load插入指令数据 二 主键优化 1 数据组织方式 在InnoDB存储引擎中,表中的数据都是根据主键顺序组织存放的,这种存储方式的表称为索引组织表 2 页分裂 页可以为空也可…

光伏-报告显示,假期内,硅料端签单顺序发货相对稳定。若3月份下游存提产,则不排除硅料价格有上调预期。

据TrendForce集邦咨询报告显示,假期内,硅料端按照前期签单顺序发货,相对稳定。若3月份下游存提产,则不排除硅料价格有上调预期。 002306中科云网 旅游 | 公司为提供复合菜系特色餐饮的连锁企业,形成了以粤菜&#xff…

Kotlin 的作用域函数:apply、let、also、run,以及 with、takeIf 和 takeUnless。函数的用法和使用场景

Kotlin中提供几个常用的作用域函数,如果能将它们熟练运用,那将会有效的提高开发效率,降低开发时间,同时保证程序的稳定。那分别是哪几个作用域函数? Kotlin 的作用域函数:apply、let、also、run,以及 with、takeIf 和 takeUnless。这些函数是编写简洁、富有表现力的 Ko…

Win10 部署llama Factory 推荐教程和遇到的问题

教程 【大模型微调】使用Llama Factory实现中文llama3微调_哔哩哔哩_bilibili 大模型微调!手把手带你用LLaMA-Factory工具微调Qwen大模型!有手就行,零代码微调任意大语言模型_哔哩哔哩_bilibili 遇到问题解决办法 pytorch gpu国内镜像下载…

101.对称二叉树 python

对称二叉树 题目题目描述示例 1:示例 2:提示: 题解递归法步骤提交结果 迭代法步骤提交结果 题目 题目描述 给你一个二叉树的根节点 root , 检查它是否轴对称。 示例 1: 输入:root [1,2,2,3,4,4,3] 输出…