本文带您在移动AI云电脑上部署DeepSeek-R1大模型,构建个人知识库,开启本地大模型使用之旅。
目前你可以在移动AI云电脑公众版、行业型(GPU型)云电脑中,利用Ollama来本地部署Deekseek R1模型。
首先选购一台移动AI云电脑:https://ecloud.10086.cn/portal/product/cloudComputer。为了保证deepseek大模型正常部署运行,推荐选购公众版8C16G及以上配置,或者GPU版2Q4C8G及以上配置。
下面通过两种方式来实现本地的DeepSeek R1模型部署:
一、命令行部署 DeepSeek R1
1、访问 Ollama 官方地址:https://ollama.com/download,下载Ollama。
2、ollama提供了多种客户端可以选择,我们选择Windos客户端进行安装,点击页面上的“Download for Windows”进行下载安装。
3、ollama顶部菜单”Models”中提供了众多模型,我们找到“deepseek-r1”,通过命令行工具进行安装
4、打开本地命令行工具,执行ollama run deepseek-r1(run命令执行安装+运行过程,本地存在模型时只会直接拉起模型),默认安装7B版本。
5、本地下载成功并成功运行,你可以在命令行中直接进行提问。
大致效果如下,回复内容包括思考过程
二、图形化部署 DeepSeek R1
上面我们通过命令行可以对deepseek进行使用,下面我们借助AnythingLLM客户端来搭建图形化界面。
1、首先安装好AnythingLLM客户端,我们通过官网下载客户端https://useanything.com/。
2、桌面双击AnythingLLM图标启动本地大模型。启动前,先启动ollama服务,ollama serve 启动服务, curl 127.0.0.1:port 显示Ollama is running,表示服务已经启动成功。
3、选择ollama,模型选择deepseek-r1
4、按照上述配置,你将创建一个你自己的workspace,你可以对工作区进行一些设置。
5、在此处配置工作区的名称
6、对工作区使用的大模型进行配置
7、配置好之后,针对deepseek大模型问答,效果如下
性能对比
对比不同云电脑规格下,7B大小的大模型占用性能:
规格 性能 | CPU(百分比) | 内存(G) | GPU(百分比) |
4Q8C16G(GPU) | 24 | 4.6 | 20 |
2Q4C8G(GPU) | 57.4 | 4.7 | 0 |
8C16G(CPU) | 49.3 | 5 | 0 |
16C32G(CPU) | 55 | 5 | 0 |
在4Q8C16G GPU型云电脑中,7B模型回复过程中,CPU 占用24%左右,GPU 占用24%左右,内存使用4.6G左右。
在2Q4C8G GPU型云电脑中,7B模型回复过程中,CPU 占用57%左右,内存使用4.7G左右。
在8C16G CPU型云电脑中,7B模型回复过程中,CPU 占用50%左右,内存使用5G左右。
在16C32G CPU型云电脑中,7B模型回复过程中,CPU 占用55%左右,内存使用5G左右。
对比相同云电脑规格(8C16G)下,7B以及1.5B大小的大模型占用性能:
规格 性能 | CPU(百分比) | 内存(G) | GPU(百分比) |
7B | 55 | 5 | 0 |
1.5B | 50 | 1.3 | 0 |
在16C32G CPU型云电脑中,1.5B模型回复过程中,CPU 占用55%左右,内存使用1.4G左右。
综上所述,在不同配置的云电脑下,本地部署deepseek所占用的CPU和内存资源均不高,不影响移动云电脑正常使用。
———————————————————————————————————————
移动云电脑与deepseek本地大模型的结合可谓强强联合。移动云电脑为大模型的搭建提供了更为灵活、高性价比的算力承载,同时用户云终端搭载独立私有化模型,用户数据彼此隔离,提供了更安全、更专属的AI体验。