使用LLaMA-Factory对AI进行认知的微调

devtools/2025/2/5 4:12:36/

使用LLaMA-Factory对AI进行认知的微调

    • 引言
    • 1. 安装LLaMA-Factory
      • 1.1. 克隆仓库
      • 1.2. 创建虚拟环境
      • 1.3. 安装LLaMA-Factory
      • 1.4. 验证
    • 2. 准备数据
      • 2.1. 创建数据集
      • 2.2. 更新数据集信息
    • 3. 启动LLaMA-Factory
    • 4. 进行微调
      • 4.1. 设置模型
      • 4.2. 预览数据集
      • 4.3. 设置学习率等参数
      • 4.4. 预览和执行命令
      • 4.5. 训练完成
    • 5. 与微调后的模型聊天
      • 5.1. 加载模型
      • 5.2. 开始聊天
      • 5.3. 导出模型
      • 5.4. 使用Vllm启动
    • 总结

引言

本文将介绍如何使用LLaMA-Factory对AI进行微调,使其具备“忍者”的认知,并认知其是由“富士电视台”开发的。

image.png

1. 安装LLaMA-Factory

1.1. 克隆仓库

git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory

1.2. 创建虚拟环境

conda create -n llama_factory python=3.11 -y
conda activate llama_factory

1.3. 安装LLaMA-Factory

pip install -e '.[torch,metrics]'

1.4. 验证

import torch
print(torch.cuda.current_device())
print(torch.cuda.get_device_name(0))
print(torch.__version__)
print(torch.cuda.is_available())

image.png

2. 准备数据

2.1. 创建数据集

进入LLaMA-Factory目录:

cd LLaMA-Factory

复制identity.json并创建identity_ninja.json

cp data/identity.json data/identity_ninja.json

{{name}}{{author}}替换为“忍者”和“富士电视台”:

sed -i 's/{{name}}/一人の忍者/g' data/identity_ninja.json
sed -i 's/{{author}}/フジテレビ/g' data/identity_ninja.json

验证:

head data/identity_ninja.json

image-20250201092802054.png

2.2. 更新数据集信息

编辑data/dataset_info.json,添加新的数据集:

vi data/dataset_info.json

添加以下内容:

  "identity_ninja": {"file_name": "identity_ninja.json"},

3. 启动LLaMA-Factory

启动LLaMA-Factory

llamafactory-cli webui

在浏览器中访问http://localhost:7860。

4. 进行微调

4.1. 设置模型

设置模型名称和微调方法,本文使用Vicuna-v1.5-7B-Chat作为基础模型。

image.png

4.2. 预览数据集

点击“预览数据集”按钮,确认数据。

image.png

4.3. 设置学习率等参数

设置学习率和训练轮数。

image.png

4.4. 预览和执行命令

设置输出目录,点击“预览命令”按钮确认命令,无误后点击“开始”。

image.png

命令示例:

llamafactory-cli train \--stage sft \--do_train True \--model_name_or_path lmsys/vicuna-7b-v1.5 \--preprocessing_num_workers 16 \--finetuning_type lora \--template vicuna \--flash_attn auto \--dataset_dir data \--dataset identity_ninja \--cutoff_len 2048 \--learning_rate 0.0001 \--num_train_epochs 6.0 \--max_samples 100000 \--per_device_train_batch_size 2 \--gradient_accumulation_steps 2 \--lr_scheduler_type cosine \--max_grad_norm 1.0 \--logging_steps 5 \--save_steps 100 \--warmup_steps 0 \--packing False \--report_to none \--output_dir saves/Vicuna-v1.5-7B-Chat/lora/train_vicuna_7b_identity_ninja_1e-4_epoch6 \--bf16 True \--plot_loss True \--trust_remote_code True \--ddp_timeout 180000000 \--include_num_input_tokens_seen True \--optim adamw_torch \--lora_rank 8 \--lora_alpha 16 \--lora_dropout 0 \--loraplus_lr_ratio 16 \--lora_target all

4.5. 训练完成

训练完成后,会显示以下消息:

image.png

5. 与微调后的模型聊天

5.1. 加载模型

选择“检查点路径”,点击“Chat”选项卡,然后点击“加载模型”。

image.png

5.2. 开始聊天

模型加载完成后,输入问题并确认AI的回答。此时,AI将具备“忍者(一人の忍者)”的认知,并认知其是由“富士电视台(フジテレビ)”开发的。

image.png

5.3. 导出模型

选择“检查点路径”,点击“Export”选项卡,输入“导出目录”,然后点击“导出”。

image.png

导出完成后,会显示“模型导出完成”消息。

5.4. 使用Vllm启动

使用以下命令在Vllm中启动导出的模型:

CUDA_VISIBLE_DEVICES=3,1,0,2 VLLM_USE_V1=1 VLLM_WORKER_MULTIPROC_METHOD=spawn vllm serve /root/HuggingFaceCache/models--lmsys--vicuna-7b-v1.5-sft --trust-remote-code --served-model-name gpt-4 --gpu-memory-utilization 0.98 --tensor-parallel-size 4 --port 8000

总结

通过以上步骤,我们成功使用LLaMA-Factory对AI进行了微调,使其具备特定的认知。希望大家能够尝试并应用这些方法进行更多的定制化。


http://www.ppmy.cn/devtools/156171.html

相关文章

Linux基础 ——tmux vim 以及基本的shell语法

Linux 基础 ACWING y总的Linux基础课,看讲义作作笔记。 tmux tmux 可以干嘛? tmux可以分屏多开窗口,可以进行多个任务,断线,不会自动杀掉正在进行的进程。 tmux – session(会话,多个) – window(多个…

【Block总结】Shuffle Attention,新型的Shuffle注意力|即插即用

一、论文信息 标题: SA-Net: Shuffle Attention for Deep Convolutional Neural Networks 论文链接: arXiv 代码链接: GitHub 二、创新点 Shuffle Attention(SA)模块的主要创新在于高效结合了通道注意力和空间注意力,同时通过通道重排技…

基于微信小程序高校课堂教学管理系统 课堂管理系统微信小程序(源码+文档)

目录 一.研究目的 二.需求分析 三.数据库设计 四.系统页面展示 五.免费源码获取 一.研究目的 困扰管理层的许多问题当中,高校课堂教学管理也是不敢忽视的一块。但是管理好高校课堂教学又面临很多麻烦需要解决,如何在工作琐碎,记录繁多的情况下将高校课堂教学的当前情况反…

webpack-编译原理

webpack 编译过程 文章目录 webpack 编译过程初始化编译创建 chunk构建所有依赖模块产生 chunk assets合并 chunk assets 输出总过程 webpack 的作用是将源代码编译(构建、打包)成最终代码。 整个过程大致分为三个步骤 初始化编译输出 初始化 此阶段&a…

宝塔安装完redis 如何访问

1,配置bind和密码 我前面在宝塔中安装完成redis,在我的电脑上访问。发现连接不上去。 2,手动杀死一次redis在重启 #执行一下命令 ps -ef | grep 6379 强制杀死进程 125117 是进程号 #杀死进程 kill -9 125117 3,重启redis 重启…

【Validator】自定义字段、结构体补充及自定义验证,go案例讲解ReportError和errors.As在其中的使用

自定义字段名称的显示 RegisterTagNameFunc,自定义字段名称的显示,以便于从字段标签(tag)中提取更有意义的名称。 代码示例:自定义字段名称 package mainimport ("fmt""reflect""strings&q…

在LINUX上安装英伟达CUDA Toolkit

下载安装包 wget https://developer.download.nvidia.com/compute/cuda/12.8.0/local_installers/cuda-repo-rhel8-12-8-local-12.8.0_570.86.10-1.x86_64.rpm 安装RPM包 sudo rpm -i cuda-repo-rhel8-12-8-local-12.8.0_570.86.10-1.x86_64.rpm sudo dnf clean all sudo dnf…

Git进阶之旅:Git 多人合作

项目克隆: git clone 仓库地址:把远程项目克隆到本地形成一个本地的仓库 克隆下来的仓库和远程仓库的名称一致 注意:git clone 远程仓库地址 远程仓库名:把远程仓库克隆下来,并自定义仓库名 多人协作: …