ollama-webui - Ollama的ChatGPT 风格的 Web 界面

embedded/2024/12/31 17:43:39/

更多AI开源软件:

发现分享好用的AI工具、AI开源软件、AI模型、AI变现 - :发现分享好用的AI工具、AI开源软件、AI模型。收录了AI搜索引擎,AI绘画工具、AI对话聊天、AI音频工具、AI图片工具、AI视频工具、AI内容检测、AI法律助手、AI高考、AI志愿、AI办公工具、AI 3D工具、AI编程工具、AI知识学习,AI竞赛、AI算力平台等[这里是图片001]https://www.aiinn.cn/

Ollama的ChatGPT 风格的 Web 界面,我们的聊天界面从 ChatGPT 中汲取灵感,确保用户友好的体验。

49200 Stars 80 贡献者 MIT License Python 语言

代码: GitHub - ntimo/ollama-webui: ChatGPT-Style Web UI Client for Ollama ??

主页: https://ollamahub.com/

主要功能
  • ?? **直观的界面**:我们的聊天界面从 ChatGPT 中汲取灵感,确保用户友好的体验。
  • ?? **响应式设计**:在桌面和移动设备上享受无缝体验。
  • **快速响应:**享受快速响应的性能。
  • ?? **轻松设置**:使用 Docker 无缝安装,享受轻松体验。
  • ?? **代码语法高亮**显示:通过我们的语法高亮功能享受增强的代码可读性。
  • ?? **完整的 Markdown 和 LaTeX 支持**:通过全面的 Markdown 和 LaTeX 功能提升您的 LLM 体验,以丰富交互。
  • ??? **下载/删除模型**:直接从 Web UI 轻松下载或删除模型。
  • ?? **多模型支持**:在不同的聊天模型之间无缝切换,以实现不同的交互。
  • **多个模型对话**: 毫不费力地同时与各种模型互动,利用他们的独特优势实现最佳响应。通过并行利用一组不同的模型来增强您的体验。
  • ?? **OpenAI 模型集成**: 无缝利用 OpenAI 模型和 Ollama 模型,以获得多样化的对话体验。
  • ?? **Regeneration History Access(重新生成历史访问**):轻松重新访问和探索您的整个重新生成历史。
  • ?? **聊天记录**: 轻松访问和管理您的对话历史记录。
  • ??? **导入/导出聊天记录**: 无缝将您的聊天数据移入和移出平台。
  • ?? **语音输入支持**:通过语音交互与您的模型互动;享受直接与模型交谈的便利。此外,探索在静音 3 秒后自动发送语音输入的选项,以获得简化的体验。
  • **使用高级参数进行微调控制**: 通过调整温度等参数并定义系统提示来根据您的特定偏好和需求定制对话,从而获得更深层次的控制。
  • ?? **Auth Header 支持**:通过直接从 Web UI 设置向 Ollama 请求添加授权标头,轻松增强安全性,确保访问安全的 Ollama 服务器。
  • ?? **外部 Ollama 服务器连接**:通过在 Docker 构建阶段配置环境变量,无缝链接到托管在不同地址上的外部 Ollama 服务器。此外,您还可以从 Web UI 构建后设置外部服务器连接 URL。
  • ?? **后端反向代理支持**:通过在 Ollama Web UI 后端和 Ollama 之间实现直接通信来增强安全性,无需通过 LAN 公开 Olamma。
安装和使用
使用 Docker Compose 安装 Ollama 和 Ollama Web UI

如果您还没有安装 Ollama,您可以使用提供的 Docker Compose 文件轻松安装。只需运行以下命令:

docker compose up -d --build

此命令将在您的系统上安装 Ollama 和 Ollama Web UI。确保修改文件以获得 GPU 支持,并在需要时在容器堆栈外部公开 Ollama API。compose.yaml

仅安装 Ollama Web UI
先决条件

在继续安装之前,请确保您已安装最新版本的 Ollama。您可以在 Ollama 找到最新版本的 Ollama。

检查 Ollama

安装 Ollama 后,通过在 Web 浏览器中访问以下链接来验证 Ollama 是否正在运行:http://127.0.0.1:11434/。请注意,端口号可能会因您的系统配置而异。

使用 Docker ??

如果 Ollama 托管在本地计算机上并且可以在 http://127.0.0.1:11434/ 访问,请运行以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main

或者,如果您希望自己构建容器,请使用以下命令:

docker build -t ollama-webui .
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway --name ollama-webui --restart always ollama-webui

您的 Ollama Web UI 现在应该托管在 http://localhost:3000 上,并通过 LAN(或网络)访问。享受!??

访问其他服务器上的外部 Ollama

更改环境变量以匹配外部 Ollama 服务器 url:OLLAMA_API_BASE_URL

docker run -d -p 3000:8080 -e OLLAMA_API_BASE_URL=https://example.com/api --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main

或者,如果您希望自己构建容器,请使用以下命令:

docker build -t ollama-webui .
docker run -d -p 3000:8080 -e OLLAMA_API_BASE_URL=https://example.com/api --name ollama-webui --restart always ollama-webui
如何在没有 Docker 的情况下安装

虽然我们强烈建议使用我们方便的 Docker 容器安装以获得最佳支持,但我们知道某些情况可能需要非 Docker 设置,尤其是出于开发目的。请注意,非 Docker 安装不受官方支持,您可能需要自行进行故障排除。

项目组件

Ollama Web UI 由两个主要组件组成:前端和后端(用作反向代理,处理静态前端文件和其他功能)。两者都需要使用 .或者,您可以在构建过程中将 设置为让前端直接连接到您的 Ollama 实例,或者将前端构建为静态文件并与后端一起提供。npm run devPUBLIC_API_BASE_URL

先决条件
  1. **克隆并进入项目:**

    git clone https://github.com/ollama-webui/ollama-webui.git
    cd ollama-webui/
    
  2. **创建和编辑 .env:**

    cp -RPp example.env .env
    
构建 Ollama Web UI 前端
  1. **安装 Node 依赖项:**

    npm install
    
  2. **在开发模式下运行或生成以进行部署:**

    • Dev Mode(要求后端同时运行):

      npm run dev
      
    • 为部署而构建:

      # `PUBLIC_API_BASE_URL` overwrites the value in `.env`
      PUBLIC_API_BASE_URL='https://example.com/api' npm run build
      
  3. **使用 Caddy(或您的首选服务器)测试 Build:**

    curl https://webi.sh/caddy | shPUBLIC_API_BASE_URL='https://localhost/api' npm run build
    caddy run --envfile .env --config ./Caddyfile.localhost
    
运行 Ollama Web UI 后端

如果您希望运行后端进行部署,请确保构建前端,以便后端可以与 API 路由一起提供前端文件。

设置说明
  1. **安装 Python 要求:**

    cd ./backend
    pip install -r requirements.txt
    
  2. **运行 Python 后端:**

    • 热重载的开发模式:

      sh dev.sh
      
    • 部署:

      sh start.sh
      

现在,您应该已在 http://localhost:8080/ 启动并运行 Ollama Web UI。随意探索 Ollama 的特性和功能!如果您遇到任何问题,请参阅上述说明或联系社区寻求帮助。


http://www.ppmy.cn/embedded/149788.html

相关文章

Unity开发AR之Vuforia-MultiTarget笔记

前言 在增强现实(AR)技术蓬勃发展的今天,越来越多的开发者开始探索如何将AR应用于各种场景中。Vuforia作为一个领先的AR开发平台,为开发者提供了强大的工具和功能,使得创建AR体验变得更加简单和直观。本文将为您介绍Vuforia的基本概念、特点,以及如何配置和使用MultiTar…

PDF书籍《手写调用链监控APM系统-Java版》第12章 结束

本人阅读了 Skywalking 的大部分核心代码,也了解了相关的文献,对此深有感悟,特此借助巨人的思想自己手动用JAVA语言实现了一个 “调用链监控APM” 系统。本书采用边讲解实现原理边编写代码的方式,看本书时一定要跟着敲代码。 作者…

PDF书籍《手写调用链监控APM系统-Java版》第5章 插桩插件与bytebuddy字节码增强

本人阅读了 Skywalking 的大部分核心代码,也了解了相关的文献,对此深有感悟,特此借助巨人的思想自己手动用JAVA语言实现了一个 “调用链监控APM” 系统。本书采用边讲解实现原理边编写代码的方式,看本书时一定要跟着敲代码。 作者…

OpenCV的FAST和goodFeaturesToTrack的區別

這兩個 OpenCV 的函數 FAST 和 goodFeaturesToTrack 都是用於特徵點檢測的,但它們有不同的用途和工作原理。以下是它們的區別: 1. FAST 函數 目的: FAST 是用來檢測圖像中的角點(KeyPoints),特別是高效的角點檢測器&…

【人工智能】基于Python和OpenCV实现实时人脸识别系统:从基础到应用

《Python OpenCV从菜鸟到高手》带你进入图像处理与计算机视觉的大门! 解锁Python编程的无限可能:《奇妙的Python》带你漫游代码世界 随着人工智能和计算机视觉的快速发展,人脸识别技术已广泛应用于监控、安全、社交媒体、金融和医疗等领域。本文将介绍如何利用Python和Ope…

Go入门篇:(一)golang的安装和编辑工具安装

一、前言 最近我有幸接触到Go语言,深入了解后,发现go语言确实有很多让人惊叹的地方。作为一个有着多年Java编程经验的程序员,我深深地被它所吸引,并且决定记录下我的学习之路,以便与大家分享我的经验和感悟。 与Java不同,Go语言的语法和运行效率都非常高,特别是对于并…

【C++】do-while 循环

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳] 本文专栏: C 文章目录 💯前言💯1. 介绍 do-while 语法格式1.1 基本语法1.2 do-while 与 while/for 区别 💯2. 执行流程分析2.1 执行流程图2.2 分析比较 💯3. 实例分析3.1 课上例子…

python爬虫----爬取视频实战

python爬虫-爬取视频 本次爬取,还是运用的是requests方法 首先进入此网站中,选取你想要爬取的视频,进入视频页面,按F12,将网络中的名称栏向上拉找到第一个并点击,可以在标头中,找到后续我们想要…