ollama部署deepseek实操记录

news/2025/2/6 21:25:18/

1. 安装 ollama

1.1 下载并安装

官网 https://ollama.com/

Linux安装命令  https://ollama.com/download/linux


curl -fsSL https://ollama.com/install.sh | sh

安装成功截图

3. 开放外网访问

1、首先停止ollama服务:systemctl stop ollama
2、修改ollama的service文件:/etc/systemd/system/ollama.service
在[Service]下边增加一行:Environment="OLLAMA_HOST=0.0.0.0:8080",端口根据实际情况修改
3、重载daemon文件 systemctl daemon-reload
4、启动ollama服务 systemctl start ollamaOllama在windows环境中如何支持通过IP来访问接口
1、首先停止ollama服务的允许。由于windows下安装的ollama不是一个标准的windows service,所以只能直接杀掉两个ollama进程。
2、为当前windows系统添加环境变量:电脑-属性-高级系统设置-环境变量
变量:OLLAMA_HOST,值:0.0.0.0:11434
3、关掉已打开的命令行窗口,打开新命令行,用ollama serve或者ollama start来启动ollama服务,此时ollama服务在启动时将读取环境变量中的OLLAMA_HOST,支持IP端口访问

4. 修改模型存储位置

Windows环境环境变量-系统变量-新建变量名:OLLAMA_MODELS变量值:D:\OllamaLinux环境默认存储路径为: /usr/share/ollama/.ollama/models假如我要将下载存储路径修改为 /data/ollama#步骤一:创建目录 sudo mkdir /data/ollama#步骤二:将目标路径的所属用户和组改为root
sudo chown -R ollama:ollama /data/ollama#步骤三:将其文件权限更换为777
sudo chmod -R 777 /data/ollama#步骤四:打开ollama.service文件
sudo vi /etc/systemd/system/ollama.service#步骤五:进行修改并添加环境(注意路径要改成自己设置的, 其它的默认, 此处仅添加了 Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434")
[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/home/hum/.local/bin:/home/hum/anaconda3/bin:/home/hum/anaconda3/condabin:/home/hum/anaconda3/bin:/usr/local/sbin:/usr/local/bi
n:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434"[Install]
WantedBy=default.target#步骤六:重载daemon文件 sudo systemctl daemon-reload
启动ollama服务 sudo systemctl start ollama

2. 部署deepseek模型   deepseek-r1:1.5b

 ollama run deepseek-r1:1.5b

显得比较弱

3. 本地部署 chatbox 接入 ollama

Chatbox AI: Your AI Copilot, Best AI Client on any device, Free Download

4. 使用

5. 后台进程将其它几个版本下载下来

cd /data/ollamanohup ollama pull deepseek-r1:671b > d0.log 2>&1 &nohup ollama pull deepseek-r1:14b > d14.log 2>&1 &nohup ollama pull deepseek-r1:32b > d32.log 2>&1 &nohup ollama pull deepseek-r1:70b > d70.log 2>&1 &


http://www.ppmy.cn/news/1569903.html

相关文章

如何开发一个大语言模型,开发流程及需要的专业知识

开发大型语言模型(LLM)是一个复杂且资源密集的过程,涉及多个阶段和跨学科知识。以下是详细的开发流程和所需专业知识指南: 一、开发流程 1. 需求分析与规划 目标定义:明确模型用途(如对话、翻译、代码生成…

音频录制一般在什么情况下会选择保存为PCM?什么情况会选择保存为WAV?

在音频开发中,选择保存为 PCM 或 WAV 格式取决于具体的应用场景和需求。以下是两种格式的特点以及适用场景的分析: PCM 格式 特点: 原始音频数据: PCM 是未压缩的原始音频数据,没有任何文件头或元数据。数据直接以二进…

013-51单片机红外遥控器模拟控制空调,自动制冷制热定时开关

主要功能是通过红外遥控器模拟控制空调,可以实现根据环境温度制冷和制热,能够通过遥控器设定温度,可以定时开关空调。 1.硬件介绍 硬件是我自己设计的一个通用的51单片机开发平台,可以根据需要自行焊接模块,这是用立创…

嵌入式(三)——嵌入式与人工智能关系_嵌入式人工智能的发展趋势

该篇文章结合了当下非常火热的人工智能问题,详细阐述了嵌入式与人工智能之间的关系,嵌入式如何与人工智能共同发展。 从人工智能与嵌入式的关系,人工智能和嵌入式发展历史的相关性以及嵌入式与人工智能未来的合作发展趋势。 人工智能&#x…

最新版Node.js下载安装指定版本图文版教程(非常详细)

文字目录 1、什么是Node.js?2、什么是 npm?3、下载Node.js安装包4、详细安装步骤 1、什么是Node.js? Node.js 是一个基于 Chrome V8 引擎的 JavaScript 运行环境,它使 JavaScript 可以在服务器端运行。在 Node.js 出现之前&#…

移动互联网用户行为习惯哪些变化,对小程序的发展有哪些积极影响

一、碎片化时间利用增加 随着生活节奏的加快,移动互联网用户的碎片化时间越来越多。在等公交、排队、乘坐地铁等间隙,用户更倾向于使用便捷、快速启动的应用来满足即时需求。小程序正好满足了这一需求,无需下载安装,随时可用&…

sentinel的限流原理

Sentinel 的限流原理基于 流量统计 和 流量控制策略,通过动态规则对系统资源进行保护。其核心设计包括以下几个关键点: 流量统计模型:滑动时间窗口 Sentinel 使用 滑动时间窗口算法 统计单位时间内的请求量,相比传统的固定时间窗…

中间件的概念及基本使用

什么是中间件 中间件是ASP.NET Core的核心组件,MVC框架、响应缓存、身份验证、CORS、Swagger等都是内置中间件。 广义上来讲:Tomcat、WebLogic、Redis、IIS;狭义上来讲,ASP.NET Core中的中间件指ASP.NET Core中的一个组件。中间件…