使用 ollama 部署最新的Llama 3 70B本地模型

embedded/2024/12/21 22:18:40/
aidu_pl">

一、ollama是什么?

在本地启动并运行大型语言模型。运行Llama 3,Mistral, Gemma, Code Llama和其他模型。自定义并创建您自己的。
综合优点:
  • 快速下载+容器自动运行大模型,现在下载,马上上手。
  • 本地利用 cpu 运行大模型,本地安全可靠。
  • ollama 命令,管理大模型相对方便,也可以多个大模型中切换。
  • 终端直接开始聊天。
  • 社区提供了支持 web api 方式访问 WebUI。
官方网站: Ollama
github :  ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models. (github.com)

二、准备和安装工作

设备需求和辅助软件:

  • Ollama自带docker ,为了方便部署软件。
  • 良好的网络环境,大模型还是要先下载下来的。
  • 配置要求:一般来说参数越大,需要配置越好。
  • 存储空间:确保硬盘空间充足,并且学会设置环境变量来调整保存model的地址,别再下载到C盘了!

model地址和环境变量设置

win10输入path或者环境变量

增加系统环境变量

变量名(不能变):OLLAMA_MODELS

(盘符和地址自主选择,建议先创建好文件夹)D:\Ollama

下载ollama

进入 ollama 下载页面,选择自己的系统版本的下载并安装即可。

检验是否安装成功

输入 ollama 命令,正常的得出命令行输出,表示已经安装成功,下面有 ollama 的常用命令:

 ollamaUsage:ollama [flags]ollama [command]Available Commands:serve       Start ollamacreate      Create a model from a Modelfileshow        Show information for a modelrun         Run a modelpull        Pull a model from a registrypush        Push a model to a registrylist        List modelscp          Copy a modelrm          Remove a modelhelp        Help about any commandFlags:-h, --help      help for ollama-v, --version   Show version informationUse "ollama [command] --help" for more information about a command.

三、ollama 模型库

详见library (ollama.com),用于搜索已收录的模型库。以下是一些流行的模型:

模型

参数尺寸执行下载
Llama3 8B8B4.7GBollama run llama3:8b
Llama3 70B70B40GBollama run llama3:70b
Mistral7B26GBollama run mistral
Code Llama 7b7B3.8GBollama run codellama:7b
Code Llama 13b13B7.4GBollama run codellama:13b
Code Llama 34b34B19GBollama run codellama:34b
Code Llama 70b70B39GBollama run codellama:70b
Gemma2B1.7GBollama run gemma:2b
Gemma7B5GBollama run gemma:7b

Llama 3的亮点和特性如下:

  • 基于超过15T token训练,大小相当于Llama 2数据集的7倍还多;
  • 训练效率比Llama 2高3倍;
  • 支持8K长文本,改进的tokenizer具有128K token的词汇量,可实现更好的性能;
  • 在大量重要基准测试中均具有最先进性能;
  • 增强推理和代码能力;
  • 安全性有重大突破,带有Llama Guard 2、Code Shield 和 CyberSec Eval 2的新版信任和安全工具,还能比Llama 2有更好“错误拒绝表现”。

四、下载运行模型

ollama run llama3:8b # 运行llama3 8b大模型

直接使用 run 命令 + 模型名字就可以运行模型。

如果之前没有下载过,那么会自动下载。(由于网络环境的原因,一开始可能比较慢,但会随着时间进展有所优化,如果模型比较大,要耐心等待一段时间)

下载完毕之后可以在终端中直接进行对话了。

直接在终端中对话:用 llama3 模型写一个 nextjs组件或者 回答你的一些知识类问题

根据实际测试,llama3  70B在windows10环境下,基本占用32GB内存,llama3 8B基本占用16GB内存。

建议至少不低于48GB或64GB内存,否则没有足够内存支持运行其他程序。

第三方API调用

API调用默认端口11434

本地地址参考:127.0.0.1:11434

五、可视化UI界面可以试试 Open WebUI

LLMs用户友好的WebUI(以前的Ollama WebUI): open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI) (github.com)

docker 部署

如果您的计算机上有 Ollama,请使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果 Ollama 位于不同的服务器上,要连接到另一台服务器上的 Ollama,请将 OLLAMA_BASE_URL 更改为服务器的 URL:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

安装完成后,可以通过访问Open WebUI。😄

http://localhost:3000

注意:端口3000常被其他的开发程序占用,可以根据自己的实际情况调整端口

进入聊天界面

如果您想将本地 Docker 安装更新到最新版本,可以使用 Watchtower 来完成:

在命令的最后部分,如果不同,请将 open-webui 替换为您的容器名称。

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

以上,只是一个基本的流程,实际使用还有很多好的功能与用法。ollama 大部分代码基于 go 开发,大家可以多多探索。


http://www.ppmy.cn/embedded/17058.html

相关文章

自动驾驶---OpenSpace之Hybrid A*规划算法

1 背景 笔者在上周发布的博客《自动驾驶---低速场景之记忆泊车》中,大体介绍了记忆泊车中的整体方案,其中详细阐述了planning模块的内容,全局规划及局部规划(会车)等内容,包括使用的算法,但是没有深入详细地展开讲述OpenSpace规划算法,因此在本篇博客中,详细讲解该部分…

Android使用ProtoBuf 适配 gradle7.5 gradle8.0

ProtoBuf 适配 Gradle7.5 gradle-wrapper.properties 配置 distributionUrlhttps\://services.gradle.org/distributions/gradle-7.5-bin.zipProject:build.gradle: plugins {id com.android.application version 7.4.2 apply falseid com.android.library versio…

CrushFTP 服务器端模板注入漏洞复现(CVE-2024-4040)

0x01 产品简介 CrushFTP是由CrushFTP LLC开发的文件传输服务器软件。CrushFTP的主要用途是提供安全、可靠的文件传输服务。它允许用户通过多种协议(如FTP、SFTP、HTTP、WebDAV等)安全地上传、下载和管理文件。CrushFTP提供了许多安全特性,包括SSL/TLS加密、用户认证、目录权…

1小时学会SpringBoot3+Vue3前后端分离开发

首发于Enaium的个人博客 引言 大家可能刚学会Java和Vue之后都会想下一步是什么?那么就先把SpringBoot和Vue结合起来,做一个前后端分离的项目吧。 准备工作 首先你需要懂得Java和Vue的基础知识,环境这里就不多说了,直接开始。 …

小程序AI智能名片S2B2C商城系统:实现分销模式的四大要件深度解析

在当前的电商领域,小程序AI智能名片S2B2C商城系统正以其独特的分销模式,引领着行业创新的风潮。这种模式的成功,离不开四大核心要件:商品、机制、平台和运营。接下来,我们将对这四大要件进行深度解析。 首先&#xff0…

机器学习——过拟合

一、过拟合得表现 模型在训练过程中,除了会出现过拟合现象,还有可能出现欠拟合的情况。相比而言,后者通常发生在建模前期,只要做好特征工程一般可以解决模型欠拟合问题。下图描述了模型在训练数据集上的三种情况: 其…

如何解决IntelliJ IDEA 2024打开项目时频繁闪退问题

🐯 如何解决IntelliJ IDEA 2024打开项目时频繁闪退问题 🐾 文章目录 🐯 如何解决IntelliJ IDEA 2024打开项目时频繁闪退问题 🐾摘要引言正文📘 识别问题📙 内存配置调整步骤1: 定位vmoptions文件步骤2: 修改…

2024年大数据应用、智能控制与软件工程国际会议(BDAICSE2024)

2024年大数据应用、智能控制与软件工程国际会议(BDAICSE2024) 会议简介 我们诚挚邀请您参加2024年大数据应用、智能控制和软件工程国际会议(BDAICSE2024)。这次会议将在美丽的长沙市举行。 本次大会旨在汇聚全球大数据应用、智能控制、软件工程等领…