deepseek本地调用

ops/2025/2/22 2:12:07/

目录

1.介绍

2.开始调用

2.1模型检验

 2.2 通过url调用

3.总结


1.介绍

这篇博客用来教你如何从本地调用ollama中deepseek的模型接口,直接和deepseek进行对话。

2.开始调用

2.1模型检验

首先要保证ollama已经安装到本地,并且已经下载了deepseek模型。可以使用下面的命令检验:

ollama list

 2.2使用subprocess

使用subprocess直接与模型进行对话,使用ollama命令中的pullrun选项来调用模型。

import subprocessdef ollama_deepseek_conversation(prompt):try:# 通过命令行使用 ollama run deepseek-r1:7b 模型,注意这里的模型名字,可以使用ollama list可以看见模型名字result = subprocess.run(['ollama', 'run', 'deepseek-r1:7b'], input=prompt,stdout=subprocess.PIPE, text=True)# 获取模型响应并返回return result.stdout.strip()except Exception as e:return f"Error occurred: {e}"if __name__ == "__main__":print("开始对话,输入'quit'退出")while True:# 获取用户输入user_input = input("你: ")if user_input.lower() == 'quit':print("对话结束")break# 调用deepseek模型获取响应response = ollama_deepseek_conversation(user_input)print(f"deepseek: {response}")

 

 2.2 通过url调用

1.创建一个本地的服务来将命令行调用转化为 REST API 请求

from flask import Flask, request, jsonify
import subprocessapp = Flask(__name__)# 定义一个路由来处理POST请求
@app.route('/deepseek', methods=['POST'])
def deepseek_conversation():data = request.get_json()  # 获取用户的 JSON 输入prompt = data.get('prompt', '')  # 从 JSON 中获取 'prompt'try:# 运行 ollama 命令并将用户输入传给 deepseek-r1:7bresult = subprocess.run(['ollama', 'run', 'deepseek-r1:7b'], input=prompt,stdout=subprocess.PIPE, text=True)# 获取模型的响应response = result.stdout.strip()return jsonify({"response": response})  # 返回 JSON 格式的响应except Exception as e:return jsonify({"error": str(e)}), 500  # 捕获错误并返回500状态码if __name__ == "__main__":app.run(host="0.0.0.0", port=5000)  # 启动 Flask 服务,监听5000端口

2.使用 requests 库来向这个本地服务发送 HTTP 请求,并获得 deepseek 模型的响应。

import requestsdef ollama_deepseek_conversation(prompt):try:url = "http://localhost:5000/deepseek"  # Flask API 地址response = requests.post(url, json={"prompt": prompt})  # 发送 POST 请求if response.status_code == 200:return response.json().get("response", "无响应")  # 解析返回的 JSON 数据else:return f"Error: {response.status_code} {response.text}"except Exception as e:return f"Error occurred: {e}"if __name__ == "__main__":print("开始对话,输入'quit'退出")while True:user_input = input("你: ")if user_input.lower() == 'quit':print("对话结束")break# 调用 deepseek 模型并获取响应response = ollama_deepseek_conversation(user_input)print(f"deepseek: {response}")

3.总结

和deepseek对话,可行的方式不仅仅只有命令窗口或webui等等,还可以使用url调用,这样一来,你就可以使用一些硬件接入deepseek(例如使用ESP32接入自己的本地deepseek制作一个本地聊天机器人)。

希望这一片博客可以为你的思路提供新的参考。


http://www.ppmy.cn/ops/160395.html

相关文章

DeepSeek系统架构的逐层分类拆解分析,从底层基础设施到用户端分发全链路

一、底层基础设施层 1. 硬件服务器集群 算力单元: GPU集群:基于NVIDIA H800/H100 GPU构建,单集群规模超10,000卡,采用NVLink全互联架构实现低延迟通信。国产化支持:适配海光DCU、寒武纪MLU等国产芯片,通过…

Ubuntu上查看端口被哪个进程占用了

文章目录 方法一:使用 netstat 命令**方法二:使用 ss 命令**方法三:使用 lsof 命令**总结: 在 Ubuntu上查看 8069 端口被哪个进程占用了,可以使用以下几种方法: 方法一:使用 netstat 命令** netstat 是一…

宝塔mysql8.0设置数据库区分大小写

在宝塔面板中,MySQL 数据库的大小写敏感设置是通过修改 MySQL 配置文件(my.cnf 或 my.ini)中的 lower_case_table_names 参数来实现的。但宝塔安装mysql8.0后lower_case_table_names 默认为1,直接修改配置并重启会导致报错&#x…

nodejs各版本下载地址 —— 筑梦之路

Index of /dist/ https://nodejs.org/dist/# 北京外国语大学开源镜像站https://mirrors.bfsu.edu.cn/nodejs-release/# 南阳理工学院http://mirror.nyist.edu.cn/nodejs-release/此处主要做个记录

Mermaid绘图技巧:如何在节点文本中实现换行

Mermaid绘图技巧:如何在节点文本中实现换行 在数据可视化领域,Mermaid作为一种强大的图形绘制工具,受到了广泛的关注和应用。它以其简洁的语法和丰富的功能,帮助开发者轻松创建流程图、序列图、甘特图等多种图形。然而&#xff0…

DeepSeek私有化专家 | 云轴科技ZStack入选IDC中国生成式AI市场概览

DeepSeek 火爆全球AI生态圈,并引发企业用户大量私有化部署需求。 国际数据公司IDC近日发文《DeepSeek爆火的背后,大模型/生成式AI市场生态潜在影响引人关注》,认为中国市场DeepSeekAI模型的推出在大模型/生成式AI市场上引起了轰动&#xff0c…

近地面无人机植被定量遥感与生理参数反演

一:近十年近地面无人机植被遥感文献分析,传感器选择,观测方式及质量控制要点 1.1. 近十余年无人机植被遥感文献分析 文献分析软件VOSviewer的使用 无人机植被遥感的重点研究方向、研究机构、科学家家 1.2. 无人机遥感的特点及与卫星遥感的差异…

Qt之多线程处理

在现代应用程序开发中,多线程处理是提高程序性能和响应速度的重要手段。Qt作为一个功能强大的跨平台C++框架,提供了丰富的多线程支持。 Qt多线程基础 Qt中的多线程处理主要依赖于QThread类。QThread类封装了底层的线程启动、运行和终止等细节,每个QThread对象代表一个独立…