windows 下 docker compose 安装 ollama 和 open-webui ,打造私有GPT

ops/2024/10/21 15:34:53/

在人工智能领域,GPT(Generative Pre-trained Transformer)模型因其强大的文本生成能力而广受欢迎。但是,由于资源限制,个人用户可能难以直接运行和训练这样的大型模型。幸运的是,有一些开源项目如Ollama和Open-WebUI,它们可以帮助我们搭建私有的GPT环境。本文将指导你如何在Windows系统上使用Docker Compose来安装和配置这两个项目。

一 环境准备

在开始之前,请确保你的Windows系统上已经安装了以下软件:

  • Docker Desktop:Docker的桌面版,可以在Windows上运行Docker容器。你可以从Docker官网下载并安装。
  • Docker Compose:一个用于定义和运行多容器Docker应用程序的工具。Docker Desktop for Windows 2.0及以上版本已经内置了Docker Compose。
  • GPU support in Docker Desktop(可选,如果本地有GPU,则需要安装):https://docs.docker.com/desktop/gpu/

二 安装步骤

2.1 配置Docker Compose

以下是一个docker-compose.yml示例:

version: '3.8'
services:ollama:image: ollama/ollama:latestports:- 11434:11434volumes:- D:\software\llms\ollama\docker\ollama:/root/.ollamacontainer_name: ollamapull_policy: if_not_presenttty: truerestart: alwaysnetworks:- ollama-docker# GPU supportdeploy:resources:reservations:devices:- driver: nvidiacount: 1capabilities:- gpuopen-webui:image: ghcr.io/open-webui/open-webui:maincontainer_name: open-webuipull_policy: if_not_presentvolumes:- D:\software\llms\open-webui\data:/app/backend/datadepends_on:- ollamaports:- 3000:8080environment:- 'OLLAMA_BASE_URL=http://ollama:11434'- 'WEBUI_SECRET_KEY=xxxx你的key'- 'HF_ENDPOINT=https://hf-mirror.com'extra_hosts:- host.docker.internal:host-gatewayrestart: unless-stoppednetworks:- ollama-dockernetworks:ollama-docker:external: false
  • deploy: GPU support, 如果只有 CPU ,则不需要
  • HF_ENDPOINT:Open WebUI提供了多种安装方法,包括Docker、Docker Compose、Kustomize和Helm。但不管你使用那种安装方法,都绕不过从huggingface.co 下载whisper模型,由于国内墙的原因,你运行半天,最后卡在这里,报错退出, 这时候你就需要配置环境变量 HF_ENDPOINT=https://hf-mirror.com , 意思是从https://hf-mirror.com 镜像,而不是https://huggfacing.co 官网下载所需的模型。

2.2 运行Docker Compose

在包含docker-compose.yml文件的目录中,打开命令提示符或PowerShell,并运行以下命令:

docker-compose up -d

这将启动并运行Ollama和Open-WebUI的服务。-d参数表示在后台运行。

2.3 验证安装

安装完成后,你可以通过访问 http://localhost:3000 来验证Open-WebUI是否成功运行。如果一切正常,你应该能看到Open-WebUI的界面。

2.4 使用私有GPT

现在,你已经成功搭建了私有GPT环境。你可以通过Open-WebUI界面与GPT模型进行交互,或者使用Ollama提供的API来开发自己的应用程序。

三 结语

通过上述步骤,你可以在Windows系统上使用Docker Compose轻松安装和配置Ollama和Open-WebUI,打造属于自己的私有GPT环境。这不仅可以帮助你更好地理解GPT模型的工作原理,还可以为你的个人项目或研究提供强大的支持。


欢迎关注微信公众号:大数据AI


http://www.ppmy.cn/ops/5578.html

相关文章

每日一题(4.20)

目录 Leecode-118-杨辉三角题目示例解题思路代码实现 Leecode-238-除自身以外数组的乘积题目示例解题思路代码实现 Leecode-118-杨辉三角 题目 给定一个非负整数 numRows,生成「杨辉三角」的前 numRows 行。 在「杨辉三角」中,每个数是它左上方和右上…

Mac M1芯片启动项目时出现 no zstd-jni in java.library.path 问题排查

优质博文:IT-BLOG-CN 问题 通过 Mac M1芯片的电脑启动项目时出现了zstd-jni包的问题,同事的M2芯片启动项目是正常的,所以初步判断是M1芯片和zstd-jni包之间不兼容的问题。 java.lang.UnsatisfiedLinkError: no zstd-jni in java.library.pa…

考察自动化立体库应注意的几点

导语 大家好,我是智能仓储物流技术研习社的社长,老K。专注分享智能仓储物流技术、智能制造等内容。 整版PPT和更多学习资料,请球友到知识星球 【智能仓储物流技术研习社】自行下载 考察自动化立体仓库的关键因素: 仓库容量&#x…

【nodejs】使用express-generator快速搭建项目框架

文章目录 一、全局安装express-generator二、安装依赖三、启动项目四、修改文件便重启服务器1、全局安装nodemon2、修改 package.json 文件3、npm start 启动项目 一、全局安装express-generator npm install -g express-generator二、安装依赖 项目根目录打开终端&#xff0…

消息转化器(解决由于后端给前端响应的格式中不能处理Long类型,因为js只会处理前16位,这样会导致后面的精度丢失)

问题描述:由于后端给前端响应的格式中不能处理Long类型,因为js只会处理前16位,这样会导致后面的精度丢失。 解决方法,将后端响应给前端的数据转化位JSON格式,将long类型的序列化一下 下面为具体方法(JAVA对象转化为J…

PTA-L2-004 这是二叉搜索树吗?

一棵二叉搜索树可被递归地定义为具有下列性质的二叉树:对于任一结点, 其左子树中所有结点的键值小于该结点的键值;其右子树中所有结点的键值大于等于该结点的键值;其左右子树都是二叉搜索树。 所谓二叉搜索树的“镜像”&#xf…

如何在 Ubuntu 上启用 IPv6

一、前提条件 一台安装了 Ubuntu 22.04 的计算机具有 sudo 权限的用户账户已连接到支持 IPv6 的网络 二、检查系统是否支持 IPv6 在启用 IPv6 之前,首先要确保您的系统支持 IPv6。要检查内核是否启用了 IPv6,可以运行以下命令: cat /proc/…

笔记wife_assistant

一、wifi_spi_init //------------------------------------------------------------------------------------------------------------------- // 函数简介 WiFi 模块初始化 // 参数说明 *wifi_ssid 目标连接的 WiFi 的名称 字符串形式 // 参数说明 *pass…