离线服务器ollama新增qwen2:0.5b模型
Dify集成ollama前面已经介绍过离线服务器CentOS使用的docker安装的ollama,其中在ollama中已经安装了deepseek-r1:1.5b
。目前的需求是需要再安装一个qwen2:0.5b
的模型,那么如何安装呢?
1.首先在有网的服务器上下载qwen2:0.5b
模型(前提:ollama已经在docker中运行了)
docker exec ollama ollama run qwen2:0.5b
2.验证是否下载成功
docker exec ollama ollama list
成功则会显示qwen2:0.5b
3.在外网服务器(有网络的服务器)上导出模型,得到qwen2-0.5b.tar.gz
docker exec ollama tar -cvzf /root/qwen2-0.5b.tar.gz -C /root/.ollama/models blobs manifests
docker cp ollama:/root/qwen2-0.5b.tar.gz ./
将qwen2-0.5b.tar.gz
传输到离线服务器上。
4.在离线服务器上执行备份操作,防止之前安装的deepseek-r1:1.5b
被覆盖而无法还原
cp -r /root/.ollama/models /root/.ollama/models_backup
5.在无网服务器上解压(增量合并,而不是覆盖)
/root/qwen2-0.5b.tar.gz是安装包所在位置
tar -xvzf /root/qwen2-0.5b.tar.gz -C /root/.ollama/models
6.重启 Ollama 并检查模型
docker restart ollama
docker exec ollama ollama list
成功则会看到 qwen2:0.5b
和 deepseek-r1:1.5b
都在列表中。