玩转大语言模型——使用langchain和Ollama本地部署大语言模型

embedded/2025/2/5 18:56:48/

系列文章目录

玩转大语言模型——使用langchain和Ollama本地部署大语言模型
玩转大语言模型——ollama导入huggingface下载的模型
玩转大语言模型——langchain调用ollama视觉多模态语言模型
玩转大语言模型——使用GraphRAG+Ollama构建知识图谱
玩转大语言模型——完美解决GraphRAG构建的知识图谱全为英文的问题
玩转大语言模型——配置图数据库Neo4j(含apoc插件)并导入GraphRAG生成的知识图谱
玩转大语言模型——本地部署带聊天界面deepseek R1的小白教程
玩转大语言模型——本地部署deepseek R1和本地数据库的小白教程(Ollama+AnythingLLM)


文章目录

  • 系列文章目录
  • 前言
  • 下载安装Ollama
  • 安装模型
  • 测试模型
    • 使用终端调用
    • 使用request直接调用
    • 使用langchain调用Ollama接口
    • 使用langchain调用OpenAI接口


前言

Ollama 是一个开源的大型语言模型服务工具,旨在简化在本地运行大语言模型的过程,降低使用大语言模型的门槛。用户可以在自己的设备上运行模型,无需依赖云服务或远程服务器,保护了数据隐私。支持 Windows、macOS 和 Linux 等多种操作系统,方便不同用户安装使用。在本篇中将介绍Windows下使用Ollama进行本地大模型的部署。


下载安装Ollama

Ollama官网:https://ollama.com/
在这里插入图片描述
点击下载,选择符合自己系统的版本,点击下载
在这里插入图片描述
下载后按照提示安装即可

安装模型

回到官网,点击左上角的Models
在这里插入图片描述
点击后可以看到会有众多支持的模型
在这里插入图片描述
在本篇中笔者将使用Qwen2.5:7b,可以在搜索栏中搜索Qwen
在这里插入图片描述
在左侧可以选择模型大小,复制右侧的命令,打开命令行执行就可以直接下载并运行模型了。如果已经下载过,使用这个命令不会重复下载。如果只下载不运行可以使用命令ollama pull qwen2.5
在这里插入图片描述

测试模型

使用终端调用

打开命令行,执行命令

ollama run qwen2.5:7b

随后就可以在命令行交互式使用大语言模型
在这里插入图片描述

使用request直接调用

由于ollama支持OpenAI接口的调用,所以也可以像直接调用OpenAI一样,使用request方式调用,调用方式只要是ollama符合提供的API即可,API可以参考:https://ollama.readthedocs.io/api/
例如使用这一接口

curl http://localhost:11434/api/generate -d '{"model": "llama3.2","prompt": "Why is the sky blue?","stream": false
}'

可以使用requests调用的方式如下(下面的代码中改成了我们需要的内容)

import requests# 定义请求的URL
url = 'http://localhost:11434/api/generate'# 定义要发送的数据
data = {"model": "qwen2.5:7b","prompt": "你好","stream": False
}# 发送POST请求,使用json参数自动处理JSON数据
response = requests.post(url, json=data)# 检查响应状态码
if response.status_code == 200:# 解析并打印响应内容result = response.json()  # 假设服务器返回的是JSON格式的数据print(result)print(result['response'])
else:# 打印错误信息print(f"请求失败,状态码:{response.status_code}")print(response.text)  # 打印服务器返回的原始文本(可能是错误信息)

上述代码中的data字典中prompt对应的值就是我们所提的问题,在这里以你好为例,下同。

langchainOllama_90">使用langchain调用Ollama接口

langchain也是一个常用的大语言模型开发框架,其中提供了关于ollama调用的接口,在实例化参数中temperature代表的是生成回答的随机程度,取值在0~1,越大随机程度越高。如果是本地配置的ollamaurl_base参数可以省略。

from langchain_ollama import ChatOllamallm = ChatOllama(temperature=0,model="qwen2.5:7b",url_base="http://localhost:11434/v1/",
)
ans = llm.invoke("你好")
print(ans)
print(ans.content)

langchainOpenAI_105">使用langchain调用OpenAI接口

上边也提到了ollama会提供OpenAI的接口,所以也可以使用langchain为OpenAI提供的调用接口。不同的是openai_api_base要改为ollama地址http://localhost:11434/v1/openai_api_key可以为任意值,但不能为中文也不能为空。

from langchain_openai import ChatOpenAIllm = ChatOpenAI(temperature=0,model="qwen2.5:7b",openai_api_base="http://localhost:11434/v1/",openai_api_key="anything"
)
ans = llm.invoke("你好")
print(ans)
print(ans.content)

http://www.ppmy.cn/embedded/159823.html

相关文章

【C++】STL——vector底层实现

目录 💕 1.vector三个核心 💕2.begin函数,end函数的实现(简单略讲) 💕3.size函数,capacity函数的实现 (简单略讲) 💕4.reserve函数实现 (细节…

Hive存储系统全面测试报告

引言 在大数据时代,数据存储和处理技术的重要性日益凸显。Apache Hive作为一个基于Hadoop的数据仓库工具,因其能够提供类SQL查询功能(HiveQL)而广受欢迎。Hive的设计初衷是为了简化大数据集的查询和管理,它允许用户通…

Meta财报解读:营收超预期,用户增长放缓,AI与元宇宙仍是烧钱重点

每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领…

学习数据结构(3)顺序表

1.动态顺序表的实现 (1)初始化 (2)扩容 (3)头部插入 (4)尾部插入 (5)头部删除 (这里注意要保证有效数据个数不为0) (6&a…

2.9学习记录

web RCEisamazingwithspace 读题目就知道可能跟空格绕过有关 题目&#xff1a; <?php highlight_file(__FILE__); $cmd $_POST[cmd]; // check if space is present in the command // use of preg_match to check if space is present in the command if (preg_match(…

AMD架构简单读书笔记1

目录 前言 关于AMD架构 AMD64 Features 概述 寄存器 指令集 媒体指令 浮点指令 前言 笔者打算简单的记录一下自己读AMD手册架构的书。笔者先前还记录了自己RISC-V手册的阅读笔记&#xff0c;RISC-V读书笔记-CSDN博客。感兴趣的朋友可以简单的翻阅一二。 AMD的所有技术…

(2024 MSSP) Self-paced-decentralized-federated-transfer-framewor

&#x1f4da; 研究背景与挑战 目前&#xff0c;故障诊断方法主要分为两类&#xff1a;基于信号处理的传统方法和基于人工智能的智能诊断方法。后者由于能够快速处理大量数据&#xff0c;逐渐成为主流。现有方法在跨域故障诊断中面临两大挑战&#xff1a;一是不同设备或工况下…

安卓(android)饭堂广播【Android移动开发基础案例教程(第2版)黑马程序员】

一、实验目的&#xff08;如果代码有错漏&#xff0c;可查看源码&#xff09; 1.熟悉广播机制的实现流程。 2.掌握广播接收者的创建方式。 3.掌握广播的类型以及自定义官博的创建。 二、实验条件 熟悉广播机制、广播接收者的概念、广播接收者的创建方式、自定广播实现方式以及有…