大模型安装部署-web工具open-webui安装">DeepSeek大模型安装部署-Web工具Open-WebUI安装
(一)、Open-WebUI的工作流程
(二)、DockerCompose部署Open-WebUI
version: "3"
services:open-webui:image: ghcr.io/open-webui/open-webui:mainenvironment:- OLLAMA_BASE_URL=http://localhost:11434- ENABLE_OPENAI_API=falsenetwork_mode: "host"
- OLLAMA_BASE_URL 配置ollama连接地址
- ENABLE_OPENAI_API 禁用连接openai
- network_mode: "host" 解决Docker容器无法与运行在主机上的Ollama服务通信
执行docker-compose up -d 启动服务,默认端口8080
访问:http://localhost:8080
(三)、Open-WebUI连接不上Ollama问题
可能是因为Ollama没有监听允许外部连接的网络接口。可通过设置环境变量OLLAMA_HOST = 0.0.0.0解决。
vim /etc/systemd/system/ollama.service[Unit]
Description=Ollama Service
After=network-online.target[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"[Install]
WantedBy=default.target#添加了Environment="OLLAMA_HOST=0.0.0.0:11434"环境变量#为了使更改生效,您需要重新加载systemd的配置。使用以下命令:
sudo systemctl daemon-reload
#最后,重启服务以应用更改:
sudo systemctl restart ollama