MAAS | Ollama 搭建本地 AI 大模型 deepseekWeb 界面调用

server/2025/2/12 14:42:47/

目录

    • 一、环境准备
    • 二、安装 Ollama
    • 三、下载并部署 DeepSeek 模型
    • 四、简单交互
    • 五、通过 Web 界面调用大模型

在当今人工智能快速发展的时代,本地部署大语言模型赋予了用户更高的灵活性和个性化服务体验。本文介绍了如何准备环境、安装Ollama框架、下载并部署DeepSeek大语言模型,以及如何通过终端交互、Api接口和Web界面(Chatbox)调用该模型进行简单交互。

一、环境准备

硬件需求:

  • 最低配置:CPU(支持 AVX2 指令集)+ 16GB 内存 + 30GB 存储。
  • 推荐配置:NVIDIA GPU(RTX 3090 或更高)+ 32GB 内存 + 50GB 存储。
    软件依赖:
  • 操作系统:Windows、macOS 或 Linux。

二、安装 Ollama

Ollama 是一个基于 Go 语言的本地大语言模型运行框架,类 Docker 产品(支持 list,pull,push,run 等命令),事实上它保留了 Docker 的操作习惯,支持上传大语言模型仓库 (有 deepseek、llama 2,mistral,qwen 等模型,你也可以自定义模型上传)。
在管理模型的同时,它还提供了一些 Api 接口,让你能够像调用 OpenAI 提供的接口那样进行交互。
访问 Ollama 官网:前往 Ollama 官网,点击“Download”按钮。

在这里插入图片描述
在这里插入图片描述

  1. 下载安装包:根据你的操作系统选择对应的安装包。下载完成后,直接双击安装文件并按照提示完成安装。
  2. 验证安装:安装完成后,在终端输入以下命令,检查 Ollama 版本:
ollama --version
#运行之后,访问 localhost:11434,查看是否正常运行:
curl  localhost:11434

在这里插入图片描述

三、下载并部署 DeepSeek 模型

ollama 安装之后,其同时还是一个命令,与模型交互就是通过命令来进行的。

  • ollama list:显示模型列表。

  • ollama show:显示模型的信息

  • ollama pull:拉取模型

  • ollama push:推送模型

  • ollama cp:拷贝一个模型

  • ollama rm:删除一个模型

  • ollama run:运行一个模型
    官方提供了一个模型仓库,https://ollama.com/library, 你可以搜索你想要的模型。

  • 入门级:1.5B 版本,适合初步测试。

  • 中端:7B 或 8B 版本,适合大多数消费级 GPU。

  • 高性能:14B、32B 或 70B 版本,适合高端 GPU。

官方建议:应该至少有 8 GB 可用 RAM 来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。
在这里我选择下载目前最火的开源 deepseek-r1 模型来做演示。模型地址为:https://ollama.com/library/deepseek-r1
下载模型:打开终端,输入以下命令下载并运行 DeepSeek 模型。例如,下载 7B 版本的命令为:

ollama run deepseek-r1:7b

四、简单交互

模型运行之后,会默认进入到交互状态,你可以按下 Ctrl + D 退出交互,但此时模型并不会退出,仍旧可以正常通过 Api 接口交互。
终端交互示例:
在这里插入图片描述
口请求参考官方文档的介绍 API 文档,下边是简单的示例:

curl http://localhost:11434/api/generate -d "{\"model\":\"deepseek-r1:7b\", \"prompt\":\"介绍下ebpf是什么\", \"stream\": false}"

在这里插入图片描述
接口请求支持 stream 模式(可以 边生成边返回 数据),请求响应长,建议使用 stream 模式,体验会提升不少。

五、通过 Web 界面调用大模型

chatbox提供了可视化的对话界面,支持windows、macOS、Linux等系统,也支持安卓和苹果手机系统
1.chatbox官网https://chatboxai.app/zh下载,我这里下载的是macos版本
在这里插入图片描述
2.在chatbox里设置ollama提供的模型服务
如何将 Chatbox 连接到远程 Ollama 服务:逐步指南
如果是公网访问,需要更改ollama 的本地监听IP地址:
修改 ollama 的本地监听IP地址, 将

Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_HOST=0.0.0.0" 

添加到 ollama 的系统服务文件( /etc/systemd/system/ollama.service)中
在这里插入图片描述
需要让 ollama 监听在 0.0.0.0:11434 ,这样它才能接受来自局域网或外部主机的连接。

sudo systemctl daemon-reload 
sudo systemctl restart ollama
sudo netstat -tulnp | grep 11434

在这里插入图片描述
ollama 的本地监听IP地址修改后就可以打开chatbox,在设置里配置连接远程 Ollama 服务了。
在这里插入图片描述
在这里插入图片描述
Chatbox 不支持对于本地部署 DeepSeek 模型的联网功能,如果需要实现联网问答,可考虑使用 Page Assist 插件来扩展这一能力。
DeepSeek本地部署如何开启联网搜索?
在这里插入图片描述


http://www.ppmy.cn/server/167086.html

相关文章

科技的尽头:在有限与永恒的夹缝中寻找文明的真谛

当人类用燧石点燃第一簇文明之火时,科技发展的齿轮便已开始转动。这个从原始工具到量子计算机的进化历程,既是人类突破生物局限的史诗,也是文明不断自我解构与重构的哲学叙事。站在人工智能与基因编辑并行的时代节点,"科技尽…

【数据库设计】深入理解常见范式

第一范式(1NF):数据原子性奠基者 核心要求:字段不可再分,消除重复数据组 设计哲学:建立数据存储的基本单元标准实现要点: 每个字段存储单一类型数据消除横向重复(多值字段&#xf…

1.1 画质算法的主要任务

文章目录 画质算法及分类画质问题的核心:退化 画质算法及分类 图像画质算法是指,处理图像或视频数字信号,以提高其视觉质量、人眼感官的算法。图像画质算法可分为:去噪(Denoising), 超分辨率(Super-Resolut…

Unity-Mirror网络框架-从入门到精通之MultipleMatches示例

文章目录 前言MultipleMatchesLobbyViewRoomViewMatchGUIPlayerGUI总结前言 在现代游戏开发中,网络功能日益成为提升游戏体验的关键组成部分。本系列文章将为读者提供对Mirror网络框架的深入了解,涵盖从基础到高级的多个主题。Mirror是一个用于Unity的开源网络框架,专为多人…

openbmc web/redfish到底层设计(持续更新...)

1.说明 本节是厘清openbmc的界面层web或者redfish到底层数据获取与展示。 不可或缺的是先阅读官方关于redfish的设计文档: 1.https://github.com/openbmc/docs/blob/master/designs/redfish-authorization.md2.https://github.com/openbmc/docs/blob/master/designs/redfish…

后盾人JS -- 模块化开发

开发模块管理引擎 <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><meta name"viewport" content"widthdevice-width, initial-scale1.0"><title>Document</title> </he…

对接苹果ios退款接口-保姆级

前言&#xff1a; 1.吐槽&#xff1a;苹果退款很恶心&#xff0c;是它认为符合退款就直接给退了&#xff0c;没有国内店家审核阶段。会导致商户额外损失&#xff0c;所以有必要对用户发起的退款订单做及时响应。 2.尴尬&#xff1a;初次对接苹果相关业务&#xff0c;因为苹果不…

Deepseek本地部署:1.5B到671B,参数规模的秘密与设计逻辑

在人工智能领域&#xff0c;模型的参数规模是决定其能力的重要因素之一。Deepseek提供了从1.5B到671B不等的多种参数规模模型&#xff0c;供用户根据需求进行本地部署。那么&#xff0c;这些参数规模的区别是什么&#xff1f;为什么Deepseek选择这些特定的参数规模&#xff0c;…