1、安装
Download Ollama on macOS
2、ollama run deepseek-r1:7b
3、Ctrl+d 结束,重新执行 ollama run deepseek-r1:7b 即可快速运行,不用重新下载了
4、安装webui
安装chrome插件 Page Assist https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo
安装完后,打开插件,选择好本地模型即可
5、试用
在mac M1 32G内存(没专门的显卡)的机器上跑的,最多可以跑32B的模型:https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B#distilled-model-evaluation