2025.03.01 早上
我已经安装了ollama 和deeseek模型 (本地部署流水账之ollama安装+Deepseek安装-CSDN博客),然后需要个与模型沟通的工具(这么说不知道对不对)。
刚开始用的chatbox,安装很方便,据说是不太专业,于是把chatbox卸载了。
然后听说Open WebUI 不错,那么就打算安装Open WebUI ,于是打开github:GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
https://github.com/open-webui/open-webui
然后看到上面写的
上面写的是需要python3.11 于是先安装python 找到了目前仅仅3.11.9有二进制安装包Python Release Python 3.11.9 | Python.org 于是安装。
然后 输入 pip install open-webui
再输入 open-webui serve
然后网页输入http://localhost:8080/auth就出现了:
然后
然后
另外:哔哩哔哩 目前播放量最高的 OpenWebUI+Ollama部署教程(非Docker)【AI配音】_哔哩哔哩_bilibili
提到了非Docker方式,这说明了Docker方式对新手可能不那么容易搞。 还有这个视频用了英伟达的coda的一个软件 说是可以安装多个python版本 似乎方便调试用。评论区有人发表:
我的安装方式大概就是
==========================关于用intel的显卡运行deepseek。 ===================
我的电脑(电脑有点不太新)的不支持CUDA。并且也不支持intel的最新驱动,https://github.com/intel/ipex-llm/blob/main/docs/mddocs/Quickstart/ollama_portable_zip_quickstart.zh-CN.md
按照操作:
结果出现:
估计是电脑的显卡不支持吧。2025.0302 确认了 确实不支持,我的电脑CPU是。网页https://zhuanlan.zhihu.com/p/708613079说了
这个文章windows环境使用intel核显GPU跑LLM大模型 说: