本地部署大模型ollama+docker+open WebUI/Lobe Chat

embedded/2024/10/18 2:25:37/

文章目录

  • 大模型工具Ollama
    • 下载
    • 安装
    • 运行
    • Spring Ai 代码测试
      • 加依赖
      • 配置
      • 写代码
  • ollama的web&Desktop
    • 搭建部署Open WebUI有两种方式
      • Docker Desktop
      • Docker部署Open WebUI
      • Docker部署Lobe Chat
        • 可以配置OpenAI的key
        • 也可以配置ollama
  • 大模型的选择

本篇基于windows环境下配置

大模型工具Ollama

https://ollama.com/

在这里插入图片描述

下载

https://ollama.com/download
windows环境下就安装windows版本
在这里插入图片描述

在这里插入图片描述

安装

点击下载的exe文件进行傻瓜式安装

运行

去ollama官网(models模块下)找大模型的名字,然后复制ollama的运行名字
https://ollama.com/library
在这里插入图片描述

ollama run qwen:4b

Spring Ai 代码测试

默认ollama会监听11434端口,可以使用下面命令查看
在这里插入图片描述

netstat -ano | findstr 11434

可以使用ollama list指令查看本地已经下好的大模型

ollama list

在这里插入图片描述

加依赖

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-ollama-spring-boot-starter</artifactId></dependency>

或者使用23版以上的idea,创建spring项目的时候选最新版本,直接勾选上AI模块下的ollama模块

配置

spring:application:name: open-ai-05-ollamaai:ollama:base-url: http://localhost:11434chat:options:model: qwen:4b   

写代码

在这里插入图片描述

@RestController
public class OllamaController {@Autowiredprivate OllamaChatClient ollamaChatClient;@RequestMapping(value = "/ai/ollama")public Object ollama(@RequestParam(value = "msg") String msg){String call = ollamaChatClient.call(msg);System.out.println(call);return call;}@RequestMapping(value = "/ai/ollama2")public Object ollama2(@RequestParam(value = "msg") String msg){ChatResponse response = ollamaChatClient.call(new Prompt(msg,OllamaOptions.create().withModel("qwen:4b").withTemperature(0.4f)));String content = response.getResult().getOutput().getContent();System.out.println(content);return content;}
}

ollama的web&Desktop

看ollama的github主页下面有很多的web&Desktop,比较流行的是Open WenUI
Open WenUI Github https://github.com/open-webui/open-webui
Open WenUI 官网:https://github.com/open-webui/open-webui

搭建部署Open WebUI有两种方式

  1. Docker方式(官网推荐)
  2. 源代码部署安装方式:(文档https://docs.openwebui.com/getting-started/)

Docker Desktop

windows环境下推荐使用Docker Desktop

轻量化,界面化操作Docker容器
官网下载安装包
https://www.docker.com/products/docker-desktop/
下载后傻瓜式安装即可,安装后需要重启,然后打开Docker Desktop后的界面如下:
在这里插入图片描述

Docker部署Open WebUI

docker中运行Open WebUI
在命令行运行docker指令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v D:\dev\open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

这是一个 docker run 命令,用于启动一个新的 Docker 容器,下面是这个命令各个部分的解释:

  • docker run:这是 Docker 的命令,用于从指定的镜像启动一个新的容器
  • -d:表示在“分离”模式下运行容器,即后台运行;
  • -p 3000:8080:端口映射,表示将宿主机的3000端口映射到容器的8080端口,当你访问宿主机的3000端口时,实际上会访问容器内的8080端口;
  • –add-host=host.docker.internal:host-gateway:这个选项向容器的 /etc/hosts 文件中添加一条记录,这通常用于让容器能够解析到宿主机的名称,并且将其 IP 地址设置为宿主机的网关地址,这在某些网络配置中很有用,尤其是当容器需要知道宿主机的地址时;
  • -v D:\dev\open-webui:/app/backend/data:卷挂载,这表示将宿主机的 D:\dev\open-webui 目录挂载到容器内的 /app/backend/data 目录,这样,容器和宿主机之间可以共享这个目录中的数据;
  • –name open-webui:为容器指定一个名称,这里是 open-webui;
  • –restart always:这个选项告诉 Docker 在容器退出时总是自动重启它,无论容器是因为何种原因退出,它都会自动重启;
  • ghcr.io/open-webui/open-webui:main:这是你要运行的 Docker 镜像的完整名称,ghcr.io 是 GitHub Container Registry 的地址,open-webui/open-webui 是镜像的仓库和名称,main是标签,通常表示该镜像的最新或主分支版本;

第一次运行需要拉取镜像比较慢,等待执行完成
在这里插入图片描述
这时候打开docker desktop就可以在images模块下看到拉取到的镜像
在这里插入图片描述

我们在拉取镜像的时候指定了Web UI的端口为3000,所以访问3000端口即可

http://localhost:3000/

第一次会要求登录
在这里插入图片描述
注册并登录
在这里插入图片描述
上来后和Chatgpt的页面很像的。

在这里插入图片描述
select model的地方选择上我们通过ollama部署的模型。然后就可以开心聊天了

Docker部署Lobe Chat

官网:https://lobehub.com/
Github:https://github.com/lobehub/lobe-chat

  • Built for you the Super Individual (专为你打造的超级个人)
  • 现代化设计的开源 ChatGPT/LLMs
  • 聊天应用与开发的UI框架; 支持语音合成、多模态、可扩展的(function call)插件系统;
  • 一键免费拥有你自己的ChatGPT/Gemini/Claude/Ollama 应用;

Lobe Chat 部署

  1. 使用 Vercel、Zeabur 或 Sealos 部署;
  2. 使用 Docker 部署;
docker run -d -p 3210:3210 -e OPENAI_API_KEY=sk-xxxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat

完整的部署文档:https://lobehub.com/zh/docs/self-hosting/start

同样的,在拉取完成后,docker desktop中也会有镜像,
在这里插入图片描述
同样的方式,访问我们指定的3210端口
在这里插入图片描述
这个需要点击设置去配置模型

可以配置OpenAI的key

在这里插入图片描述
注意代理的地址要在后面加上/v1
配置好后就可以访问openai

也可以配置ollama

在这里插入图片描述
本机默认代理地址可以不用配,模型列表中选上你的模型就可以使用了。
还可以加插件使用
也可以在本地部署更强大的模型,使用图片,文件,音频等模态

大模型的选择

  • 大语言模型主要分为国外大模型 和 国内大模型;
  • 国外大模型,可能受到一些限制,或者不稳定;
  • 国内也有非常优秀的大模型,国内大模型排行榜:
    • https://www.superclueai.com/
    • 基于中文语言理解测评基准,包括代表性的数据集、基准(预训练)模型、语料库、排行榜;
    • 选择一系列有一定代表性的任务对应的数据集,做为测试基准的数据集,这些数据集会覆盖不同的任务、数据量、任务难度;

http://www.ppmy.cn/embedded/32990.html

相关文章

Leetcode—422. 有效的单词方块【简单】Plus

2024每日刷题&#xff08;126&#xff09; Leetcode—422. 有效的单词方块 实现代码 class Solution { public:bool validWordSquare(vector<string>& words) {int row words.size();for(int i 0; i < row; i) {// 当前这一行的列数int col words[i].length(…

我遇到的前端疑难杂症

1.使用vite打包后的页面打不开 问题&#xff1a;不要直接打开dist的index.html 解决方案&#xff1a;点击dist文件夹进入终端后输入npm run preview就能打开了 2.node下载包时下载不了最新版/下载错误的包 问题&#xff1a;没清缓存 解决方案&#xff1a;清除缓存&#xff08;…

mindjourney和stable diffusion该怎么选?

很多刚开始接触AI绘画的人来说&#xff0c;mindjourney和stable diffusion该怎么选&#xff1f; 坦白来说&#xff0c;这两种对于普通用户来说&#xff0c;门槛都会有一些。 mj的门槛在于需要梯子&#xff0c;而且要想持续出图&#xff0c;还需要付费&#xff0c;对以免费为乐…

上位机图像处理和嵌入式模块部署(树莓派4b读写json数据)

【 声明&#xff1a;版权所有&#xff0c;欢迎转载&#xff0c;请勿用于商业用途。 联系信箱&#xff1a;feixiaoxing 163.com】 前面我们说过&#xff0c;ini文件是用来进行配置的&#xff0c;数据库是用来进行数据存储的。那json是用来做什么的呢&#xff0c;json一般是用来做…

ubuntu20中ros与anaconda的python版本冲突问题

系统环境 原本系统是ubuntu20 noetic&#xff0c;python都在/usr/bin中&#xff0c;一共是两个版本的python&#xff0c;一个是python3.8&#xff0c;另一个是python2.7。 问题发现 当安装anaconda后&#xff0c;并且将anaconda的bin目录加入到系统环境中时候&#xff0c;…

使用 Python 和 OpenCV 进行实时目标检测的详解

使用到的模型文件我已经上传了&#xff0c;但是不知道能否通过审核&#xff0c;无法通过审核的话&#xff0c;就只能 靠大家自己发挥实力了&#xff0c;^_^ 目录 简介 代码介绍 代码拆解讲解 1.首先&#xff0c;让我们导入需要用到的库&#xff1a; 2.然后&#xff0c;设…

【netty系列-03】深入理解NIO的基本原理和底层实现(详解)

Netty系列整体栏目 内容链接地址【一】深入理解网络通信基本原理和tcp/ip协议https://zhenghuisheng.blog.csdn.net/article/details/136359640【二】深入理解Socket本质和BIOhttps://zhenghuisheng.blog.csdn.net/article/details/136549478【三】深入理解NIO的基本原理和底层…

springboot 整合 knife4j-openapi3

适用于&#xff1a;项目已使用shiro安全认证框架&#xff0c;整合knife4j-openapi3 1.引入依赖 <!-- knife4j-openapi3 --> <dependency><groupId>com.github.xiaoymin</groupId><artifactId>knife4j-openapi3-spring-boot-starter</artifa…