开源GPT-4小羊驼(Vicuna)快速上手指南

news/2024/10/23 5:38:01/

小羊驼(Vicuna)是什么

Vicuna: 一个开源的GPT,宣称实现了GPT-4 90%的功能。
UC伯克利学者联手CMU、斯坦福等,再次推出一个全新模型70亿/130亿参数的Vicuna,俗称「小羊驼」(骆马)。
并且和其他以往不同的是你可以在自己的设备上跑起来!比如Mac,再比如你的主力机!

官网在这:https://vicuna.lmsys.org
体验点这个(如果打不开就用魔法):https://chat.lmsys.org
在这里插入图片描述

一.环境准备

  • ubuntu 20.04 (自带python3,且版本满足要求)
  • 硬盘大约200G左右(100G也不是不能用,最好是200G,50G肯定是不行)
  • 内存(计划用vicuna-7b的30G,vicuna-13b的60G,选哪个大家自己按需,满分100的话7b大概是40分,13b的话大概70分)
  • 显卡(越贵越好,风浪越贵鱼越大)
    以我自己的环境为例:
    1.E5-2697-V2,64G内存,没有用显卡,能跑但是速度十分难受。
    2.Macbook Pro M1 pro版本16+512,7b的能跑,效果还行。

二.开始操作

1.LLaMa模型下载与转换

1.1 模型下载
磁力链接:magnet:?xt=urn:btih:b8287ebfa04f879b048d4d4404108cf3e8014352&dn=LLaMA
大家自行按需下载
在这里插入图片描述
以7b为例下载之后的模型长这样

在这里插入图片描述
这里我下载的路径是/home/douding/LLaMA
1.2 模型转换

$ git clone https://github.com/huggingface/transformers.git
$ cd transformers
7B参考下面的
$ python3 src/transformers/models/llama/convert_llama_weights_to_hf.py \--input_dir /home/douding/LLaMA --model_size 7B --output_dir ./output/llama-7b13B看这个$ python3 src/transformers/models/llama/convert_llama_weights_to_hf.py \--input_dir /home/douding/LLaMA --model_size 13B --output_dir ./output/llama-13b

转换完成后会在/home/douding/transformers/output中看到你的模型
在这里插入图片描述

2.小羊驼模型合并与生成

$ pip3 install fschat
$ pip3 install git+https://github.com/huggingface/transformers 
7b参考如下
$ git clone https://huggingface.co/lmsys/vicuna-7b-delta-v0注意这里需要手动下载大文件到/home/douding/lmsys/vicuna-7b-delta-v0中

在这里插入图片描述

$ python3 -m fastchat.model.apply_delta \--base /home/douding/transformers/output/llama-7b \--target /home/douding/vicuna-7b \--delta /home/douding/lmsys/vicuna-7b-delta-v0
 13b参考如下$git clone https://huggingface.co/lmsys/vicuna-13b-delta-v0 /home/douding/lmsys/vicuna-13b-delta-v0

注意这里需要手动下载大文件到/home/douding/lmsys/vicuna-13b-delta-v0中
在这里插入图片描述

 $ python3 -m fastchat.model.apply_delta \--base /home/douding/transformers/output/llama-13b \--target /home/douding/vicuna-13b \--delta /home/douding/lmsys/vicuna-13b-delta-v0

成功后会对应的目录/home/douding/vicuna-7b和/home/douding/vicuna-13b中看到对应的小羊驼模型
在这里插入图片描述
在这里插入图片描述

我这里提供已经做好了的小羊驼模型(含7b和13b):
链接: https://pan.baidu.com/s/1t2He47-qDCYYJ38pak_beQ?pwd=w9nw 提取码: w9nw

3.运行

CPU纯享版

python3 -m fastchat.serve.cli --model-path /path/to/vicuna/weights --device cpu

GPU畅爽版

python3 -m fastchat.serve.cli --model-path /home/douding/vicuna-7b

Mac勉强享受版

python3 -m fastchat.serve.cli --model-path /home/douding/vicuna-7b --device mps --load-8bit

贴一张运行成功的截图,虽然满慢,但……充钱就可以变强!

在这里插入图片描述


http://www.ppmy.cn/news/46948.html

相关文章

2023红明谷杯部分WP

0x00 签到 一直点就能得到flag 0x01 Dreamer 拿到题感觉有点儿懵 先下发靶机看一眼 梦想家CMS,好嘛,我直接一手查找官网 直接一手演示中心碰运气 哎嘿嘿,运气不错进去了,突然想起之前有位大佬写的关于Dreamer CMS的代码审…

基于ArcGIS、ENVI、InVEST、FRAGSTATS等多技术融合提升环境、生态、水文、土地、土壤、农业、大气等领域的数据分析能力与项目科研水平

【原文链接】:基于ArcGIS、ENVI、InVEST、FRAGSTATS等多技术融合提升环境、生态、水文、土壤、农业、大气等领域的数据分析https://mp.weixin.qq.com/s?__bizMzU5NTkyMzcxNw&mid2247537467&idx4&sn10c4c12897282daf5320efae05caf3a4&chksmfe689551…

​​2021遥感应用组二等奖:基于机器学习回归算法的鄱阳湖水质遥感定量反演及时序变化监测研究

作品介绍 一、作品背景 鄱阳湖是中国第一大淡水湖,也是中国第二大湖,它在调节长江水位、涵养水源、改善当地气候等方面起着重大的作用。但近年来受围垦、环境污染等人类活动影响,鄱阳湖湿地退化严重,同时使鄱阳湖的容量减少&…

Kafka的历史版本对应SpringBoot版本

截至目前(2023年),Kafka的最新版本是2.9.0,发布于2022年11月30日。Kafka的历史版本可以在Kafka官方网站的下载页面中找到。Kafka从0.8版本开始发布,经历了多个版本的迭代和升级。以下是一些比较重要的Kafka版本及其发布…

US News退榜风波后,发布最新美国最佳法学院和医学院排名

从2022年11月开始,美国权威排名机构US News不断陷入风波。耶鲁大学法学院率先宣布退出US News法学院排名,先是法学院,后是医学院,包括哈佛大学大学、斯坦福大学、哥伦比亚大学和加州大学伯克利分校等名校也纷纷宣布退出。 这些老…

The 1st Universal Cup Stage 12: ̄Ookayama, April 15-16, 2023 题解

A XOR Tree Path 给一颗树&#xff0c;树上点有黑白两色&#xff0c;每次可以选一个叶子节点&#xff0c;翻转其到根路径上所有点的颜色&#xff0c;问最大黑色点数。 树dp #include<bits/stdc.h> using namespace std; #define MAXN (10000010) #define ll long long…

【社区图书馆】启迪后人——GPT 与读书的奇妙之旅

随着科技的发展和人工智能的不断进步&#xff0c;我们的阅读方式也在逐渐改变。作为一个热爱读书的人&#xff0c;我深感好奇与惊讶地发现&#xff0c;GPT&#xff08;即生成预训练 Transformer&#xff09;正以前所未有的方式拓展我们的阅读视野。在这篇博客中&#xff0c;我将…

RabbitMQ-整合mqtt

用 springboot rabbitmq可以搭建物联网&#xff08;IOT&#xff09;平台&#xff0c;rabbitmq 不是消息队列吗&#xff0c;原来rabbitmq有两种协议&#xff0c;消息队列是用的AMQP协议&#xff0c;而用在智能硬件中的是MQTT协议。 一、rabbitmq是什么&#xff1f; RabbitMQ就…