超级详细Spring AI运用Ollama大模型

embedded/2025/2/25 5:53:10/

大模型工具Ollama

官网:https://ollama.com/
Ollama是一个用于部署和运行各种开源大模型的工具;
它能够帮助用户快速在本地运行各种大模型,极大地简化了大模型在本地运行的过程。用户通过执行几条命令就能在本地运行开源大模型,如Lama 2等;
综上,Ollama是一个大模型部署运行工具,在该工具里面可以部署运行各种大模型,方便开发者在本地搭建一套大模型运行环境;

下载:https://ollama.com/download

下载Ollama
说明:Ollama的运行会受到所使用模型大小的影响;
1、例如,运行一个7B(70亿参数)的模型至少需要8GB的可用内存(RAM),而运行一个13B(130亿参数)的模型需要16GB的内存,33B(330亿参数)的型需要32GB的内存;
2、需要考虑有足够的磁盘空间,大模型的文件大小可能比较大,建议至少为Ollama和其模型预留50GB的磁盘空间3、性能较高的CPU可以提供更好的运算速度和效率,多核处理器能够更好地处理并行任务,选择具有足够核心数的CPU:
4、显卡(GPU):Ollama支持纯CPU运行,但如果电脑配备了NVIDIA GPU,可以利用GPU进行加速,提高模型的运行速度和性能;

命令行使用ollama 打开终端,输入ollama -h,查看到所有的命令

service ollama start启动allama

输入ollama -v查看当前版本,能输出版本则安装成功

运行模型单行对话

拉取并运行llama2模型
ollama run llama2
直接输入该命令会检查目录下是否有该模型,没有会自动下载,下载好后自动运行该模型
其他模型见library (ollama.com)

# 查看 Ollama 版本
ollama -v# 查看已安装的模型
ollama list# 删除指定模型
ollama rm [modelname]# 模型存储路径
# C:Users<username>.ollamamodels

ollama run qwen:0.5b

默认Ollama api会监听11434端口,可以使用命令进行查看netstat -ano |findstr 114341

//加依赖
<dependency>
<groupld>org.springframework,ai</groupld>
<artifactld>spring-ai-ollama-spring-boot-starter</artifactld>
</dependency>
//写代码
注入OllamaChatClient
@Resource
private OllamaChatClient ollamaChatClient,
//调用call方法
ollamaChatClient.call(msg);

完整pom文件

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>3.3.0</version><relativePath/> <!-- lookup parent from repository --></parent><groupId>com.zzq</groupId><artifactId>spring-ai-ollama</artifactId><version>0.0.1-SNAPSHOT</version><name>spring-ai-ollama</name><description>spring-ai-ollama</description><properties><java.version>17</java.version><!--        快照版本--><spring-ai.version>1.0.0-SNAPSHOT</spring-ai.version></properties><dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-ollama-spring-boot-starter</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-devtools</artifactId><scope>runtime</scope><optional>true</optional></dependency><dependency><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId><optional>true</optional></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-test</artifactId><scope>test</scope></dependency></dependencies><dependencyManagement><dependencies><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-bom</artifactId><version>${spring-ai.version}</version><type>pom</type><scope>import</scope></dependency></dependencies></dependencyManagement><build><plugins><plugin><groupId>org.springframework.boot</groupId><artifactId>spring-boot-maven-plugin</artifactId><configuration><excludes><exclude><groupId>org.projectlombok</groupId><artifactId>lombok</artifactId></exclude></excludes></configuration></plugin></plugins></build><!--    快照版本--><repositories><repository><id>spring-snapshot</id><name>Spring Snapshots</name><url>https://repo.spring.io/snapshot</url><releases><enabled>false</enabled></releases></repository></repositories>
</project>

application文件内容

spring:application:name:spring-ai-05-ollamaai:ollama:base-url: http://localhost:11434chat:options:model: qwen:0.5b

controller

package com.zzq.controller;import jakarta.annotation.Resource;
import org.springframework.ai.ollama.OllamaChatModel;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;@RestController
public class OllamaController {@Resourceprivate OllamaChatModel ollamaChatModel;@RequestMapping(value = "/ai/ollama")public Object ollama(@RequestParam(value = "msg")String msg){String called=ollamaChatModel.call(msg);System.out.println(called);return called;}
}

package com.zzq.controller;import jakarta.annotation.Resource;
import org.springframework.ai.chat.model.ChatResponse;
import org.springframework.ai.chat.prompt.Prompt;
import org.springframework.ai.ollama.OllamaChatModel;
import org.springframework.ai.ollama.api.OllamaOptions;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RequestParam;
import org.springframework.web.bind.annotation.RestController;@RestController
public class OllamaController {@Resourceprivate OllamaChatModel ollamaChatModel;@RequestMapping(value = "/ai/ollama")public Object ollama(@RequestParam(value = "msg")String msg){String called=ollamaChatModel.call(msg);System.out.println(called);return called;}@RequestMapping(value = "/ai/ollama2")public Object ollama2(@RequestParam(value = "msg")String msg){ChatResponse chatResponse=ollamaChatModel.call(new Prompt(msg, OllamaOptions.create().withModel("qwen:0.5b")//使用哪个大模型.withTemperature(0.4F)));//温度,温度值越高,准确率下降,温度值越低,准确率上升System.out.println(chatResponse.getResult().getOutput().getContent());return chatResponse.getResult().getOutput().getContent();}
}

http://www.ppmy.cn/embedded/164979.html

相关文章

AWQ和GPTQ量化的区别

一、前言 本地化部署deepseek时发现&#xff0c;如果是量化版的deepseek&#xff0c;会节约很多的内容&#xff0c;然后一般有两种量化技术&#xff0c;那么这两种量化技术有什么区别呢&#xff1f; 二、量化技术对比 在模型量化领域&#xff0c;AWQ 和 GPTQ 是两种不同的量…

自动驾驶之BEV概述

1、为什么需要BEV&#xff1f; 自动驾驶需要目标在3D空间的位置信息&#xff0c;传统检测为2D图像上检测目标然后IPM投影到3D。所以无论如何3D结果才是我们最终想要的。 对于单个传感器&#xff1a;通过单目3D、深度估计等手段好像能解决这个问题&#xff0c;但是往往精度不高…

python学习第十章-post请求与get请求的区别

问题&#xff1a;GET请求和POST请求到底有什么区别&#xff1f;今天&#xff0c;我想和大家分享一下我的学习成果&#xff0c;并通过一个实际的例子来展示这两种请求的不同之处。 一、GET请求与POST请求的区别 在今天之前我遇到的所有学习使用的网址全都是get请求&#xff0c;…

Linux系统:服务器常见服务默认IP端口合集

服务器的默认IP端口取决于所使用的协议和服务类型。以下是一些常见服务和协议的默认端口&#xff1a; 服务端口实例&#xff1a; HTTP服务 默认端口&#xff1a;80 说明&#xff1a;用于普通的HTTP网页访问。例如&#xff0c;访问 http://example.com 时&#xff0c;默认使用8…

Rust 中的内部可变性与 `RefCell<T>`

一、为什么需要内部可变性&#xff1f; 通常&#xff0c;Rust 编译器通过静态分析确保&#xff1a; 同一时刻只能存在一个可变引用&#xff0c;或任意多个不可变引用&#xff1b;引用始终保持有效。 这种严格的借用规则使得许多内存错误在编译阶段就能被捕获&#xff0c;但也…

在Spring Boot中如何使用Freemaker模板引擎

在 Spring Boot 中使用 FreeMarker 模板引擎可以帮助你创建动态的 Web 页面。以下是详细的步骤和示例代码,介绍如何在 Spring Boot 项目里集成和使用 FreeMarker。 1. 添加依赖 如果你使用的是 Maven 项目,需要在 pom.xml 文件中添加 FreeMarker 相关依赖。Spring Boot 提供…

集群离线环境编译pytorch

intro 对于一些需要更改pytorch源码或者需要特定pytorch版本的需求可能需要更改pytorch。下面是笔者在集群服务器上重新编译pytorch 的一个过程。记录了出现的一些问题和解决方案 编译环境 由于集群操作系统的一些库版本太低&#xff08;比如glibc库&#xff09;&#xff0c;我…

51单片机-定时器中断

1、使用定时器&#xff0c;该做哪些工作 初始化程序应完成如下工作&#xff1a; 对TMOD赋值&#xff0c;以确定T0和T1的工作方式。计算初值&#xff0c;并将其写入TH0、TL0或TH1、TL1。中断方式时&#xff0c;则对EA赋值&#xff0c;开发定时器中断。使用TR0或TR1置为&#x…