如何微调Chinese-Vicuna-7b模型

news/2024/11/15 0:51:02/

环境建议:使用谷歌云GCP,国内的云环境实在是太慢了哦。github慢,pip 慢,下载模型也慢。

1.下载环境

!git clone https://github.com/Facico/Chinese-Vicuna
!pip install -r ./Chinese-Vicuna/requirements.txt

2. 准备数据 json/jsonl格式

3. 微调

!python ./Chinese-Vicuna/finetune.py --data_path /content/Chinese-Vicuna/sample/instruct/data_sample.jsonl --test_size 5

4.生成web界面

!python ./Chinese-Vicuna/generate.py --model_path decapoda-research/llama-7b-hf --lora_path /content/lora-Vicuna --use_local 0

5.运行界面


http://www.ppmy.cn/news/632619.html

相关文章

修改7b2认证图标

修改7b2认证图标 原文链接:https://www.xiaohulizyw.com/2191.html 原生的认证图标有的人不是很喜欢,喜欢自己去自定义,那么如何去修改? 1、首先打开主题函数文件路径为:/wp-content/themes/b2/functions.php 第23行…

【AIGC】BaiChuan7B开源大模型介绍、部署以及创建接口服务

模型介绍 baichuan-7B是由百川智能开发的一个开源的大规模预训练模型。基于Transformer结构,在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威benchmark(C-EVAL/MMLU&#x…

足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼

之前尝试了从0到1复现斯坦福羊驼(Stanford Alpaca 7B),Stanford Alpaca 是在 LLaMA 整个模型上微调,即对预训练模型中的所有参数都进行微调(full fine-tuning)。但该方法对于硬件成本要求仍然偏高且训练低效…

LLaMA:7B参数量的Baby版ChatGPT窥探

最近metaAI“不小心”泄露了自身的大语言模型LLaMA,本着好奇的心火速下载了LLaMA的权重,来试玩一下这个baby版的ChatGPT,为什么称作是baby版,是因为该权重还没有像ChatGPT那般Finetune过。 LLaMA各参数版本与GPT-3的性能对比如下…

win10,win11 下部署Vicuna-7B,Vicuna-13B模型,gpu cpu运行

运行Vicuna-7B需要RAM>30GB或者14GB的显存 运行Vicuna-13B需要RAM>60GB或者28GB的显存 如果没有上面的硬件配置请绕行了,我笔记本有64G内存,两个都跑跑看,使用python3.9,当时转换13b时一直崩溃后来发现是没有设定虚拟内存&…

电脑连上wifi不能连接内网的其他设备的解决方法

场景: 电脑有两个网卡,一个以太网,一个WIFI网卡 以太网设置的地址是172.16.0.101(默认网关是172.16.0.254).正常情况下可以ping通服务器(172.16.9.251)和连接服务器。 当电脑连接手机热点(wifi&#xff09…

理解GPT-4:人工智能的全新里程碑及其国内使用

在人工智能领域,每一代的进步都是突破性的。近年来,这个领域的发展尤为引人注目,尤其是在语言处理和生成方面。OpenAI的GPT系列模型就是最好的例证。在GPT-3取得巨大成功后,我们迎来了更强大的GPT-4。 GPT-4: AI的新里程碑 GPT-4…

pvf词典

1 代码 2.稀有/品级[rarity] 3.佩戴登记 [minimum level] 4.diaoluo [grade] 5.分类代码 10武器 鬼剑1 02短剑 03太刀 04钝器 05巨剑 06光剑 格斗2 02手套 03臂铠 04爪子 05拳套 06东方棍 神枪3 02左轮 03自动手枪 04步枪 05手炮 06手弩 魔法4 02矛 03棍棒 04魔杖 05法杖 06扫…