DeepSeek本地化部署【window下安装】【linux下安装】

news/2025/2/15 7:17:45/

一、window 本地安装指导

1.1、下载window安装包

https://ollama.com/download/OllamaSetup.exe

1.2、点击下载好的安装包进行安装

检测安装是否成功:

C:\Users\admin>ollama -v
ollama version is 0.5.7

有上面的输出,则证明已经安装成功。

配置系统的环境变量

# 配置ollama监听网址,这里表示监听所有网卡
OLLAMA_HOST=0.0.0.0:11434
# 下载的大模型存放路径
OLLAMA_MODELS=F:\ollama_model

这里最后重启下电脑,使得设置的环境变量生效。

1.3、运行需要的大模型

在ollama官网搜索,deepseek,这里选择deepseek-coder来进行部署

在这里插入图片描述

并且选择1.3b参数的模型进行部署(资源有限,先保证能用)。

运行命令为:

ollama run deepseek-coder

linux_45">二、linux本地安装指导

ollama api使用指南:

https://github.com/datawhalechina/handy-ollama/blob/main/docs/C4/1.%20Ollama%20API%20%E4%BD%BF%E7%94%A8%E6%8C%87%E5%8D%97.md

2.1、下载安装ollama

1、安装ollama模型

curl -fsSL https://ollama.com/install.sh | sh

修改

/etc/systemd/system/ollama.service

添加上环境变量即可

OLLAMA_HOST=0.0.0.0:11434

重新启动ollama服务

sudo systemctl daemon-reload
sudo systemctl restart ollama

2.2、下载模型

ollama run deepseek-r1:1.5b

2.3、测试模型

curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:1.5b","prompt": "你是一个高级运维工程师。你的职责","stream": false
}'curl http://localhost:11434/api/chat -d '{"model": "deepseek-coder:latest","messages": [{"role": "user","content": "为什么草是绿的?"}],"stream": false
}'curl http://localhost:11434/v1/chat/completions -d '{"model": "deepseek-coder:latest","messages": [{"role": "user","content": "使用java实现一个冒泡排序算法"}],"stream": false
}'

三、IDEA接入私有化部署的Deepseek大模型

安装CodeGPT插件

3.1、在插件市场搜索CodeGPT,并进行安装。

在这里插入图片描述

3.2、配置codeGPT

在这里插入图片描述

安装上述图片描述进行配置。

其中URL:部署Deepseek的服务器的IP地址和端口

请求体中model参数是你安装那个deepseek大模型的名称。可以通过ollama list来列出已经安装的大模型。

[root@iZbp156z1grx9j03c0zl8tZ ~]# ollama list
NAME                     ID              SIZE      MODIFIED
deepseek-coder:latest    3ddd2d3fc8d2    776 MB    About an hour ago

如果通过ollama安装了多个大模型,你可以指定其他大模型,但是名称要跟使用上面命令列出的模型名称保持一致。

指定刚刚配置的模型为我们的编码助手。

在这里插入图片描述

3.3、测试功能是否可用

在这里插入图片描述

经过测试,发现已经可以通过codeGPT插件调用Deepseek的大模型了。

四、Deepseek本地部署的大模型API调用

可以参考下面的文档进行使用

ollama api使用指南:

https://github.com/datawhalechina/handy-ollama/blob/main/docs/C4/1.%20Ollama%20API%20%E4%BD%BF%E7%94%A8%E6%8C%87%E5%8D%97.md

此外,ollama 还支持通过openAI格式的接口调用,

如对话接口:

http://8.136.125.228:11434/v1/chat/completions

在这里插入图片描述


http://www.ppmy.cn/news/1572176.html

相关文章

物联网(IoT)如何与人工智能(AI)的结合

物联网(IoT)与人工智能(AI)的结合是当前技术发展的重要趋势,通常被称为 AIoT(人工智能物联网)。这种结合通过将AI的计算能力和数据分析能力与物联网的海量设备连接能力相结合,实现了…

从VGG到Transformer:深度神经网络层级演进对模型性能的深度解析与技术实践指南

一、技术原理(数学公式示意图) 1. 层深与模型容量关系 数学表达:根据Universal Approximation Theorem,深度网络可表达复杂函数: f ( x ) f L ( f L − 1 ( ⋯ f 1 ( x ) ) ) f(x) f_L(f_{L-1}(\cdots f_1(x))) f…

微软AutoGen高级功能——Memory

介绍 大家好,博主又来给大家分享知识了。这次又要给大家分享什么呢?哈哈。这次要给大家分享的是微软AutoGen框架的高级且重要的功能:Memory。在微软AutoGen中,Memory(记忆)是一个重要概念,它主要用于存储和管理智能体…

fastadmin图片前台导出

参考 https://github.com/hhurz/tableExport.jquery.plugin#options define([jquery, bootstrap, backend, table, form], function ($, undefined, Backend, Table, Form) {$(document).ready(function(){$(#table).bootstrapTable(refreshOptions, {exportOptions: {onMsoNu…

DeepSeek 可视化部署手册:环境配置与运维指南

DeepSeek 可视化部署详细步骤 DeepSeek 可视化部署涉及前端、后端、数据库等多个组件的配置与集成。以下是详细的部署步骤,帮助您完成从环境准备到生产环境部署的全过程。 1. 环境准备 在开始部署之前,确保您的系统满足以下要求: 操作系统…

lobechat环境变量汇总(docker版)

LobeChat 环境变量配置指南 LobeChat Docs LobeHub 上述是官方环境变量的配置指南,我并不会总结所有的环境变量用法,只会根据自行使用时,遇到的问题总结 s3存储变量 S3_ENABLE_PATH_STYLE 类型:可选 描述:是否启…

web自动化笔记(二)

文章目录 一、参数化测试1.pytest命令2.实现参数化测试3.填写地址测试4.生成Allure测试报告5.关键字驱动 二、案例1.实现后台登录1.1登录1.2.处理验证码1.3.封装识别验证码函数 2.通过cookie保持登录2.1给页面添加cookie2.2获取页面的cookie2.3自动化获取cookie 三、excel进行数…

Python--多线程

一、多线程与多进程 1.1 基本概念 进程:操作系统资源分配的基本单位,独立的内存空间,包含一个或多个线程。线程:CPU调度的最小单位,共享进程资源,轻量级执行流。多线程:同一进程内多个线程并发…