记录一下安装过程:
一、环境准备
-
硬件要求
-
内存 ≥16GB:DeepSeek R1-8B 模型需占用约 4.9GB 显存,建议预留足够内存以避免运行卡顿29。
-
存储空间 ≥10GB:模型文件及依赖库需占用较大空间212。
-
-
软件依赖
-
安装 Ollama:作为模型管理工具,支持一键部署。
-
访问 Ollama 官网,下载 macOS 版本并安装。
-
验证安装:终端输入
ollama --version
,显示版本号即成功。
-
-
二、安装 DeepSeek R1-8B 模型
-
下载模型
-
终端执行命令:
bash
复制
ollama run deepseek-r1:8b
此命令将自动下载并安装 8B 版本的模型,下载完成后显示
success
即成功。
-
-
验证模型运行
-
输入
ollama list
查看已安装模型,确认deepseek-r1:8b
存在。 -
启动交互模式:
bash
复制
ollama run deepseek-r1:8b
输入问题测试响应,输入
/bye
退出。
-
三、进阶配置(可选)
-
通过 Open-WebUI 提供图形界面
-
安装 Docker:从 Docker 官网 下载 macOS 版本并启动服务。
-
运行 Open-WebUI 容器:
bash
复制
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
访问
http://localhost:3000
配置 Ollama 模型即可使用 Web 界面。
-
-
与 LM Studio 集成(适合新手)
-
下载 LM Studio,搜索
deepseek-r1
选择 8B 模型下载,提供可视化操作界面。
-
四、常见问题与优化建议
-
安装失败处理
-
网络问题:重试命令或切换网络环境12。
-
依赖缺失:确保已安装 Xcode 命令行工具(终端运行
xcode-select --install
)6。
-
-
性能优化
-
调整参数:在 LM Studio 中设置
Temperature=0.6
、top-p=0.95
,减少随机性并提升回答质量9。 -
关闭后台程序:释放内存资源,避免模型运行卡顿。
-
-
局限性说明
-
回答准确性:8B 模型在复杂数学或长文本任务中可能表现一般,建议降低预期。
-
知识库时效性:本地模型无法联网更新知识,需定期手动更新数据。
-