ollama部署deepseek实操记录

ops/2025/2/8 3:56:03/

1. 安装 ollama

1.1 下载并安装

官网 https://ollama.com/

Linux安装命令  https://ollama.com/download/linux


curl -fsSL https://ollama.com/install.sh | sh

安装成功截图

3. 开放外网访问

1、首先停止ollama服务:systemctl stop ollama
2、修改ollama的service文件:/etc/systemd/system/ollama.service
在[Service]下边增加一行:Environment="OLLAMA_HOST=0.0.0.0:8080",端口根据实际情况修改
3、重载daemon文件 systemctl daemon-reload
4、启动ollama服务 systemctl start ollamaOllama在windows环境中如何支持通过IP来访问接口
1、首先停止ollama服务的允许。由于windows下安装的ollama不是一个标准的windows service,所以只能直接杀掉两个ollama进程。
2、为当前windows系统添加环境变量:电脑-属性-高级系统设置-环境变量
变量:OLLAMA_HOST,值:0.0.0.0:11434
3、关掉已打开的命令行窗口,打开新命令行,用ollama serve或者ollama start来启动ollama服务,此时ollama服务在启动时将读取环境变量中的OLLAMA_HOST,支持IP端口访问

4. 修改模型存储位置

Windows环境环境变量-系统变量-新建变量名:OLLAMA_MODELS变量值:D:\OllamaLinux环境默认存储路径为: /usr/share/ollama/.ollama/models假如我要将下载存储路径修改为 /data/ollama#步骤一:创建目录 sudo mkdir /data/ollama#步骤二:将目标路径的所属用户和组改为root
sudo chown -R ollama:ollama /data/ollama#步骤三:将其文件权限更换为777
sudo chmod -R 777 /data/ollama#步骤四:打开ollama.service文件
sudo vi /etc/systemd/system/ollama.service#步骤五:进行修改并添加环境(注意路径要改成自己设置的, 其它的默认, 此处仅添加了 Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434")
[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/home/hum/.local/bin:/home/hum/anaconda3/bin:/home/hum/anaconda3/condabin:/home/hum/anaconda3/bin:/usr/local/sbin:/usr/local/bi
n:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434"[Install]
WantedBy=default.target#步骤六:重载daemon文件 sudo systemctl daemon-reload
启动ollama服务 sudo systemctl start ollama

2. 部署deepseek模型   deepseek-r1:1.5b

 ollama run deepseek-r1:1.5b

显得比较弱

3. 本地部署 chatbox 接入 ollama

Chatbox AI: Your AI Copilot, Best AI Client on any device, Free Download

4. 使用

5. 后台进程将其它几个版本下载下来

cd /data/ollamanohup ollama pull deepseek-r1:671b > d0.log 2>&1 &nohup ollama pull deepseek-r1:14b > d14.log 2>&1 &nohup ollama pull deepseek-r1:32b > d32.log 2>&1 &nohup ollama pull deepseek-r1:70b > d70.log 2>&1 &


http://www.ppmy.cn/ops/156626.html

相关文章

flowable expression和json字符串中的双引号内容

前言 最近做项目,发现了一批特殊的数据,即特殊字符",本身输入双引号也不是什么特殊的字符,毕竟在存储时就是正常字符,只不过在编码的时候需要转义,转义符是\,然而转义符\也是特殊字符&…

基于联合概率密度与深度优化的反潜航空深弹命中概率模型研究摘要

前言:项目题材来自数学建模2024年的D题,文章内容为笔者和队友原创,提供一个思路。 摘要 随着现代军事技术的发展,深水炸弹在特定场景下的反潜作战效能日益凸显,如何最大化的发挥深弹威力也成为重要研究课题。本文针对评估深弹投掷落点对命中潜艇概率的影响进行分析,综合利…

90,【6】攻防世界 WEB Web_php_unserialize

进入靶场 进入靶场 <?php // 定义一个名为 Demo 的类 class Demo { // 定义一个私有属性 $file&#xff0c;默认值为 index.phpprivate $file index.php;// 构造函数&#xff0c;当创建类的实例时会自动调用// 接收一个参数 $file&#xff0c;用于初始化对象的 $file 属…

Vim跳转文件及文件行结束符EOL

跳转文件 gf 从当前窗口打开那个文件的内容&#xff0c;操作方式&#xff1a;让光标停在文件名上&#xff0c;输入gf。 Ctrlo 从打开的文件返回之前的窗口 Ctrlwf 可以在分割的窗口打开跳转的文件&#xff0c;不过在我的实验不是次次都成功。 统一行尾格式 文本文件里存放的…

基于 Ollama+Docker+OpenWebUI 的本地化部署deepseek流程

搭建deepseek 安装Ollama Ollama官方下载地址 下载完成后双击打开Ollama进行安装,点击install 安装完成后系统会弹出下图提示代表安装成功并且已启动 验证安装 ollama -v安装完成后&#xff0c;cmd 打开命令行窗口&#xff0c;输入 “ollama -v” 测试&#xff0c;显示 olla…

5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署)

最近很多朋友都在问&#xff1a;怎么本地部署 DeepSeek 搭建个人知识库。 老实说&#xff0c;如果你不是为了研究技术&#xff0c;或者确实需要保护涉密数据&#xff0c;我真不建议去折腾本地部署。 为什么呢&#xff1f; 目前 Ollama 从 1.5B 到 70B 都只是把 R1 的推理能力…

DeepSeek模型构建与训练

在完成数据预处理之后,下一步就是构建和训练深度学习模型。DeepSeek提供了简洁而强大的API,使得模型构建和训练变得非常直观。无论是简单的全连接网络,还是复杂的卷积神经网络(CNN)或循环神经网络(RNN),DeepSeek都能轻松应对。本文将带你一步步构建一个深度学习模型,并…

某音小程序反编译签名加密静态分析

文章目录 1. 写在前面2. 抓包分析3. 逆向分析 【&#x1f3e0;作者主页】&#xff1a;吴秋霖 【&#x1f4bc;作者介绍】&#xff1a;擅长爬虫与JS加密逆向分析&#xff01;Python领域优质创作者、CSDN博客专家、阿里云博客专家、华为云享专家。一路走来长期坚守并致力于Python…