在linux上部署ollama+open-webu,且局域网访问教程

ops/2024/10/24 18:44:57/

linux上部署ollama+open-webu,且局域网访问教程

  • 运行ollama
  • open-webui
    • 安装open-webui
  • (待实现)下一期将加入内网穿透,实现外网访问功能

在这里插入图片描述

本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并使用Open WebUI

经使用,qwen2.5:32b模型效果很好,在24gb模型上速度很快

目录
  Ollama支持当前主要的开源大模型, 比如llama2、千文qwen、mistral等,可以在Windows、Linux、MacOS系统上进行部署。稳定性和便利性都非常不错,下面就来分享一下它在Linux系统上的安装与应用。

运行ollama

运行后直接自动安装

curl -fsSL https://ollama.com/install.sh | sh

在这里插入图片描述

ollama运行
现在Ollama已经安装完了,我们需要在终端中输入下方命令运行一个大语言模型进行测试,这里以对在中文方面表现相对好些的千问为例,大家也可以使用其他的模型。

ollama serve

在另一个终端中,验证 Ollama 是否正在运行:

ollama -v

设置ollama的参数设置,/etc/systemd/system/ollama.service

sudo vim /etc/systemd/system/ollama.service

输入以下的参数:

[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/home/lvting/anaconda3/bin:/home/lvting/anaconda3/bin:/home/lvting/anaconda3/condabin:/home/lvting/.vscode-server/cli/servers/Stable-384ff7382de624fb94dbaf6da11977bba1ecd427/server/bin/remote-cli:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/data/lt/1/.ollama/" # 设置模型下载的路径
Environment="OLLAMA_HOST=0.0.0.0" #可访问
Environment="OLLAMA_ORIGINS=*" 
[Install]
WantedBy=default.target

然后启动服务:

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
sudo systemctl status ollama

在这里插入图片描述
这样说明就启动了
运行qwen2.5模型

ollama run qwen2.5:3b

在这里插入图片描述
然后直接输入问题就可以回答了
在这里插入图片描述

open-webui

虽然直接使用ollama的方法可以用,但是不太方便,使用webui的可视化更简洁明了

安装open-webui

首先在linux中安装open-webui:

使用默认配置安装:
刚才 Ollama 在您的计算机上,请使用以下命令:
使用这个命令:

sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

因为我已经安装完成了,且open-webui服务已经启动,所以输入命令后会提示
在这里插入图片描述

sudo docker ps # 输入这个命令可以查看到正在运行的docker

在这里插入图片描述

以下为其他选项:
如果 Ollama 位于其他服务器上,请使用以下命令:

要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URL:OLLAMA_BASE_URL:
这个此次不介绍,下次尝试使用

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

安装完成后,open-webui的网站为http://&{ip}:3000/
此处需要将网站的ip修改服务器内网的ip:

ifconfig # 查看服务器ip
然后打开网站如:
http://192.168.1.23:3000/

在这里插入图片描述
这里可以选择模型
在这里插入图片描述

(待实现)下一期将加入内网穿透,实现外网访问功能


http://www.ppmy.cn/ops/128127.html

相关文章

GCC静态库与动态库链接顺序的深坑

有三个工程文件,A为SDL2动态库,B为基于A的静态库,C为基于A和B的主程序EXE,现在发现这个问题: 在C程序链接器命令的时候,通常像这种写法-lSDL2 -lLibB,此时就会报B报错找不到A中的函数&#xff…

Centos编写mysql备份脚本

1. 编写 MySQL 备份脚本 创建一个名为 backup.sh 的脚本,定期备份 fuint-food 数据库。 #!/bin/bash # 获取当前时间戳 TIMESTAMP$(date "%F-%H%M") # 备份存储路径 BACKUP_DIR"/path/to/backup/$TIMESTAMP" # MySQL 相关信息 MYSQL_USER&quo…

Linux运维篇-误操作已经做了pv的磁盘导致pv异常

目录 故障场景排错过程小结 故障场景 在对/dev/vdb1创建了pv并扩容至vg(klas)之后,不小心对/dev/vdb进行了parted操作,删除了/dev/vdb1导致pvs查看显示异常。具体过程如下所示: 正常创建pv 将创建好的pv添加到系统现有的卷组中 不小心又对…

怎么提取pdf的某一页?批量提取pdf的某一页的简单方法

怎么提取pdf的某一页?在日常工作与学习中,我们经常会遇到各式各样的PDF文件,它们以其良好的兼容性和稳定性,成为了信息传输和存储的首选格式。然而,在浩瀚的文档海洋中,有时某个PDF文件中的某一页内容尤为重…

RHCE的练习(5)

虚拟目录 第一步: 关闭防火墙(因为要与外部连接访问) [rootlocalhost ~]# systemctl stop firewalld [rootlocalhost ~]# setenforce 0第二步: 创建新IP地址(用于区分) [rootlocalhost ~]# nmcli connecti…

京东商品详情API全攻略:返回值字段一网打尽

京东商品详情API是京东开放平台提供的一个重要接口,它允许开发者获取京东平台上商品的详细信息。这些信息对于电商从业者、数据分析师以及需要进行商品信息监控和比价的开发者来说非常有价值。下面是一份京东商品详情API的全攻略,包括返回值字段的详细解…

C++基础

C 进一步扩充和完善了 C 语言&#xff0c;像Java一样它也是一种面向对象的程序设计语言。 上一篇&#xff1a;C语言基础 1. 程序结构 让我们逐帧分析 #include <iostream> using namespace std;// main() 是程序开始执行的地方int main() {cout << "Hello …

2024软考-《软件设计师》-易混淆知识点总结(1~6章)

一、计算机组成与体系结构 1.1、原码、反码、补码、移码的运算 原码&#xff1a;最高位表示符号位&#xff0c;其余低位表示数值的绝对值&#xff08;0表示正数&#xff0c;1表示负数&#xff09; 反码&#xff1a;正数的反码与原码相同&#xff0c;负数的反码是其绝对值按位…