为啥要本地部署deepseek?
因为给deepseek发送指令得到服务器繁忙的回馈,本地部署会运行的更快
1.Ollama安装与部署
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计
win+R——cmd——ollama如下图显示,则安装ollama成功!
返回到Ollama 单击选择deepseek-R1
选择模型大小,建议选择7b的是电脑内存所定。复制命令到命令行
此时看到正在下载
安装完毕后可以试着向他提问测试一下,直接在命令控制行提问并不方便所以此时我们还需要下载Cherry Studio
2.Cherry Studio
Cherry Studio 是一个支持多模型服务的桌面客户端,为专业用户而打造,内置 30 多个行业的智能助手,帮助用户在多种场景下提升工作效率。Cherry Studio 内置了很多服务商,集成了超过 300 多个大语言模型。在使用过程中,你可以随意切换模型来回答问题,充分利用各个大模型的优势解决问题。Cherry Studio 支持 Windows 和 macOS 两大主流操作系统,未来还会支持移动平台。
选择刚在本地部署的deepseek-r1:7b
返回对话框选择ollama模型里的deepseek-r1:7b
最后给deepseek发出指令就行了