Ubuntu 20.04配置ollama并下载安装调用本地大语言模型

embedded/2024/11/14 22:55:25/

Ubuntu 20.04配置ollama并下载安装调用本地大语言模型

  • ollama 介绍(来自ChatGPT)
    • 主要特点
  • ollama开发环境预配置
  • ollama在ubuntu下的安装
    • 直接安装
    • 压缩包安装
      • 创建开机ollama的脚本
      • 启动ollama
  • ollama在ubuntu下的运行

ollama 介绍(来自ChatGPT)

Ollama 是一种新的本地语言模型管理与运行平台,旨在帮助用户在本地环境中运行和管理大型语言模型(LLMs),例如 LLaMA、GPT 等。与传统基于云的解决方案不同,Ollama 专注于在用户本地系统上运行这些模型,以提高数据隐私性和响应速度。

主要特点

  1. 本地运行:Ollama 允许用户在本地设备上运行大语言模型,无需依赖云计算。这有助于在脱机状态下使用,并确保数据不会发送到外部服务器,提升数据隐私。
  2. 多模型管理:支持同时运行和管理多个语言模型。用户可以轻松切换、更新或扩展模型集合。
  3. GPU 加速:对于需要高性能的任务,Ollama 支持 GPU 加速,以便提高计算效率和处理速度。它可以与 CUDA 和适当的 GPU 驱动一起使用,以提供最佳的性能表现。
  4. 简单接口:提供易于使用的命令行界面(CLI),方便用户通过简单的指令运行、管理模型并进行推理。
  5. 开源和可扩展:Ollama 是开源项目或基于开源技术,用户可以根据自己的需求自定义和扩展其功能。

ollama开发环境预配置

本人在开发的时候事先配置了ubuntu环境下的深度学习环境,包括显卡驱动安装、Cuda安装等安装,可以参考** https://blog.csdn.net/m0_58678659/article/details/122932488 **博客进行学习,注意显卡驱动和Cuda还有cudnn的版本适配

ubuntu_15">ollama在ubuntu下的安装

直接安装

直接访问ollama的官网https://ollama.com/,点击download,一共有三个图标,中间是linux,将该指令放到终端中运行:

curl -fsSL https://ollama.com/install.sh | sh

这条指令大概率是不行,采用科学上网下载也不能成功,国内的网络基本上别想了

压缩包安装

访问连接https://github.com/ollama/ollama/releases/,根据自己的系统下载对应压缩包,我的是intel的处理器x86架构下载amd64版本
在这里插入图片描述
下载完成后在下载目录下打开终端,运行以下指令,就会将该压缩文件夹解压到/use/local目录下面,这里注意的是解压后的文件夹的名字并不是ollama,一个是bin 一个是lib,解压成功后在/usr/local中打开bin和lib文件夹会出现ollama相关的文件

sudo tar -zxf ollama-linux-amd64.tgz -C /usr/local

在这里插入图片描述
在这里插入图片描述
这代表解压成功了,之后在该终端中输入,就会输出安装的版本信息代表安装成功了,如果是第一次安装大概率出来的消息会比图里面多几句话,什么could not这种,这是因为没有创建开机的脚本

ollama -v

在这里插入图片描述

创建开机ollama的脚本

先赋予执行权限,我的ollama解压到了**/usr/local**目录下,所以进入到当前目录bin中,先赋予执行权限,运行以下指令

sudo chmod +x /usr/local/bin/ollama

执行完成之后为ollama创建用户

sudo useradd -r -s /bin/false -m -d /usr/local/bin/ollama ollama

创建一个在 /etc/systemd/system/中的ollama.service的service文件,首先在终端中输入

sudo gedit /etc/systemd/system/ollama.service

之后在该文件中输入以下代码部分

[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3[Install]
WantedBy=default.target

创建完成之后启动服务

sudo systemctl daemon-reload
sudo systemctl enable ollama

启动ollama

在终端中输入,开启服务,然后会输出以下部分代码,这里会有一个http://127.0.0.1:11434,如果你是第一次打开大概率跟我下面界面是不一样的,需要进行一部操作,把该连接连接到IP地址服务器上,其实就是本地服务器

ollama serve

在这里插入图片描述
打开**~/.bashrc**文件,输入以下指令,在最后一行添加以下代码

sudo gedit ~/.bashrc

添加之后进行保存

export OLLAMA_HOST=http://127.0.0.1:11434

之后打开浏览器输入http://127.0.0.1:11434,会出现,代表之前的配置安装没有问题
在这里插入图片描述

ubuntu_86">ollama在ubuntu下的运行

先在终端打开ollama serve开启服务,之后输入以下代码,这里如果本地没有安装该模型,会自动进行下载,一定要科学上网

ollama run llama3.2-vision

安装完成之后并输入问题就有以下提示,代表可以进行本地调用
在这里插入图片描述


http://www.ppmy.cn/embedded/136815.html

相关文章

C++动态库和静态库的特点以及区别

目录 命名规则使用方式发布方式资源占用运行效率更新方式加载方式其他 C的库文件包括动态库和静态库两种,可以说是开发的时候必然会接触的内容,应该都很熟悉了,这篇文章就简单聊一下这两种库的特点以及区别。 命名规则 在Windows系统中动态…

Autosar CP Can State Mangement规范导读

CanSM的主要功能 CAN网络通信模式控制 管理CAN网络的启动、停止和不同通信模式(如全通信、静默通信、无通信)之间的切换。通过状态机实现对CAN网络状态的精确控制,确保网络在不同条件下稳定运行。错误处理与状态报告 根据AUTOSAR基础软件的错误分类方案处理错误,包括开发错…

【vue2.0入门】认识vue工程

目录 引言一、工程目录介绍1. package.json文件2. src\App.vue3. src\components 文件夹4. src\assets 文件夹5. node_modules 文件夹6. 其他 二、安装 vuejs devtools 插件1. 下载插件2. 配置插件3. 使用插件 三、总结 引言 本系列教程旨在帮助一些零基础的玩家快速上手前端开…

MySQL压缩版安装详细图解

1.下载 mysql压缩包版本和msi版的安装方法不一样,下面的是压缩包版本的安装详细图解: 总地址下载地址:MySQL :: Download MySQL Community Server MySQL :: Download MySQL Community Server (Archived Versions) 压缩版下载MySQL :: Dow…

Qt_day3_信号槽

目录 信号槽 1. 概念 2. 函数原型 3. 连接方式 3.1 自带信号 → 自带槽 3.2 自带信号 → 自定义槽 3.3 自定义信号 4. 信号槽传参 5. 对应关系 5.1 一对多 5.2 多对一 信号槽 1. 概念 之前的程序界面只能看,不能交互,信号槽可以让界面进行人机…

Spring MVC(一)

1. Spring MVC是什么? 搞清楚Spring MVC之前先搞清楚MVC是什么?MVC是一种架构设计模式,也就是一种思想,M是Model,V是View,C是Controller。他们之间的关系举一个例子来介绍。比如去饭店吃饭,一进…

分布式-锁

一、锁的业务场景 1、为什么要加锁? 在多线程环境下,针对一些共享资源往往会出现线程安全问题,需要加锁校准程序执行过程。 2、单机锁的类型 synchronized 关键字。 Lock 接口的锁。 atomic 包的封装类。 3、分布式场景中的锁 在分布…

Java反射原理及其性能优化

目录 JVM是如何实现反射的反射的性能开销体现在哪里如何优化反射性能开销 1. JVM是如何实现反射的? 反射是Java语言中的一种强大功能,它允许程序在运行时动态地获取类的信息以及操作对象。下面是一个简单的示例,演示了如何使用反射调用方法&#xff…