MAAS | Ollama 搭建本地 AI 大模型 deepseekWeb 界面调用

ops/2025/2/12 9:48:28/

目录

    • 一、环境准备
    • 二、安装 Ollama
    • 三、下载并部署 DeepSeek 模型
    • 四、简单交互
    • 五、通过 Web 界面调用大模型

在当今人工智能快速发展的时代,本地部署大语言模型赋予了用户更高的灵活性和个性化服务体验。本文介绍了如何准备环境、安装Ollama框架、下载并部署DeepSeek大语言模型,以及如何通过终端交互、Api接口和Web界面(Chatbox)调用该模型进行简单交互。

一、环境准备

硬件需求:

  • 最低配置:CPU(支持 AVX2 指令集)+ 16GB 内存 + 30GB 存储。
  • 推荐配置:NVIDIA GPU(RTX 3090 或更高)+ 32GB 内存 + 50GB 存储。
    软件依赖:
  • 操作系统:Windows、macOS 或 Linux。

二、安装 Ollama

Ollama 是一个基于 Go 语言的本地大语言模型运行框架,类 Docker 产品(支持 list,pull,push,run 等命令),事实上它保留了 Docker 的操作习惯,支持上传大语言模型仓库 (有 deepseek、llama 2,mistral,qwen 等模型,你也可以自定义模型上传)。
在管理模型的同时,它还提供了一些 Api 接口,让你能够像调用 OpenAI 提供的接口那样进行交互。
访问 Ollama 官网:前往 Ollama 官网,点击“Download”按钮。

在这里插入图片描述
在这里插入图片描述

  1. 下载安装包:根据你的操作系统选择对应的安装包。下载完成后,直接双击安装文件并按照提示完成安装。
  2. 验证安装:安装完成后,在终端输入以下命令,检查 Ollama 版本:
ollama --version
#运行之后,访问 localhost:11434,查看是否正常运行:
curl  localhost:11434

在这里插入图片描述

三、下载并部署 DeepSeek 模型

ollama 安装之后,其同时还是一个命令,与模型交互就是通过命令来进行的。

  • ollama list:显示模型列表。

  • ollama show:显示模型的信息

  • ollama pull:拉取模型

  • ollama push:推送模型

  • ollama cp:拷贝一个模型

  • ollama rm:删除一个模型

  • ollama run:运行一个模型
    官方提供了一个模型仓库,https://ollama.com/library, 你可以搜索你想要的模型。

  • 入门级:1.5B 版本,适合初步测试。

  • 中端:7B 或 8B 版本,适合大多数消费级 GPU。

  • 高性能:14B、32B 或 70B 版本,适合高端 GPU。

官方建议:应该至少有 8 GB 可用 RAM 来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。
在这里我选择下载目前最火的开源 deepseek-r1 模型来做演示。模型地址为:https://ollama.com/library/deepseek-r1
下载模型:打开终端,输入以下命令下载并运行 DeepSeek 模型。例如,下载 7B 版本的命令为:

ollama run deepseek-r1:7b

四、简单交互

模型运行之后,会默认进入到交互状态,你可以按下 Ctrl + D 退出交互,但此时模型并不会退出,仍旧可以正常通过 Api 接口交互。
终端交互示例:
在这里插入图片描述
口请求参考官方文档的介绍 API 文档,下边是简单的示例:

curl http://localhost:11434/api/generate -d "{\"model\":\"deepseek-r1:7b\", \"prompt\":\"介绍下ebpf是什么\", \"stream\": false}"

在这里插入图片描述
接口请求支持 stream 模式(可以 边生成边返回 数据),请求响应长,建议使用 stream 模式,体验会提升不少。

五、通过 Web 界面调用大模型

chatbox提供了可视化的对话界面,支持windows、macOS、Linux等系统,也支持安卓和苹果手机系统
1.chatbox官网https://chatboxai.app/zh下载,我这里下载的是macos版本
在这里插入图片描述
2.在chatbox里设置ollama提供的模型服务
如何将 Chatbox 连接到远程 Ollama 服务:逐步指南
如果是公网访问,需要更改ollama 的本地监听IP地址:
修改 ollama 的本地监听IP地址, 将

Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_HOST=0.0.0.0" 

添加到 ollama 的系统服务文件( /etc/systemd/system/ollama.service)中
在这里插入图片描述
需要让 ollama 监听在 0.0.0.0:11434 ,这样它才能接受来自局域网或外部主机的连接。

sudo systemctl daemon-reload 
sudo systemctl restart ollama
sudo netstat -tulnp | grep 11434

在这里插入图片描述
ollama 的本地监听IP地址修改后就可以打开chatbox,在设置里配置连接远程 Ollama 服务了。
在这里插入图片描述
在这里插入图片描述
Chatbox 不支持对于本地部署 DeepSeek 模型的联网功能,如果需要实现联网问答,可考虑使用 Page Assist 插件来扩展这一能力。
DeepSeek本地部署如何开启联网搜索?
在这里插入图片描述


http://www.ppmy.cn/ops/157741.html

相关文章

NLP Word Embeddings

Word representation One-hot形式 在上一周介绍RNN类模型时,使用了One-hot向量来表示单词的方式。它的缺点是将每个单词视为独立的,算法很难学习到单词之间的关系。 比如下面的例子,即使语言模型已经知道orange juice是常用组合词&#xf…

存储异常导致的Oracle重大生产故障

📢📢📢📣📣📣 作者:IT邦德 中国DBA联盟(ACDU)成员,10余年DBA工作经验 Oracle、PostgreSQL ACE CSDN博客专家及B站知名UP主,全网粉丝10万 擅长主流Oracle、MySQL、PG、高斯…

C语言操作符详解

引言 C语言作为一种强大而灵活的编程语言,操作符是其重要组成部分。操作符用于执行各种运算,如算术运算、逻辑运算、比较运算等。深入理解C语言操作符,能帮助开发者编写出高效、准确的代码。 算术操作符 基本算术操作符 - (加法…

快速部署 DeepSeek R1 模型

1. DeepSeek R1 模型的介绍 DeepSeek R1 模型是专为自然语言处理(NLP)和其他复杂任务设计的先进大规模深度学习模型 ,其高效的架构设计是一大亮点,能够更高效地提取特征,减少冗余计算。这意味着在处理海量数据时&…

C#上位机--Net Framework

NET Framework 是由微软开发的一个托管代码编程模型,支持多种编程语言。自首次发布以来经历了多个版本迭代,每个新版本都引入了新的特性和改进。 Net Framework 的核心是公共语言运行库(CLR),后面所说的托管程序就是在CLR中运行 并被管理的,比如垃圾回收…

react使用if判断

1、第一种 function Dade(req:any){console.log(req)if(req.data.id 1){return <span>66666</span>}return <span style{{color:"red"}}>8888</span>}2、使用 {win.map((req,index) > ( <> <Dade data{req}/>{req.id 1 ?…

Word 编辑密码解密教程

如果你遇到 word 不能打开编辑或忘记密码的情况&#xff0c;别担心&#xff0c;这里有最简单的办法。具体步骤如下&#xff1a;在手机或电脑浏览器上输入 文件密码.top 进入密码找回网站&#xff0c;然后点击“立即开始”&#xff0c;上传文件&#xff0c;无需下载软件&#xf…

开启对话式智能分析新纪元——Wyn商业智能 BI 携手Deepseek 驱动数据分析变革

2月18号&#xff0c;Wyn 商业智能 V8.0Update1 版本将重磅推出对话式智能分析&#xff0c;集成Deepseek R1大模型&#xff0c;通过AI技术的深度融合&#xff0c;致力于打造"会思考的BI系统"&#xff0c;让数据价值触手可及&#xff0c;助力企业实现从数据洞察到决策执…