【AI时代】可视化训练模型工具LLaMA-Factory安装与使用

news/2025/2/24 6:34:22/

文章目录

  • 安装
  • 训练
  • 使用

安装

官方地址:https://github.com/hiyouga/LLaMA-Factory

创建虚拟环境

conda create -n llama-factory
conda activate llama-factory

安装

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

检查

完成安装后,可以通过使用llamafactory-cli来快速校验安装是否成功

如果您能成功看到类似下面的界面,就说明安装成功了。

启动webui

nohup llamafactory-cli webui > output.log 2>&1 &

启动后访问该地址:

训练

简单在页面设置一下参数

模型路径:可以使用huggingface的路径,也可以直接配置本地的路径;大部分参数使用默认的即可。

自定义数据集需要在该文件中进行配置,页面才可见:

配置好之后,点击预览命令,展示训练命令:

llamafactory-cli train \--stage sft \--do_train True \--model_name_or_path /mnt/largeroom/llm/model/DeepSeek-R1-Distill-Qwen-1.5B \--preprocessing_num_workers 16 \--finetuning_type lora \--template deepseek3 \--flash_attn auto \--dataset_dir data \--dataset alpaca_zh_demo \--cutoff_len 2048 \--learning_rate 5e-05 \--num_train_epochs 3.0 \--max_samples 1000000 \--per_device_train_batch_size 4 \--gradient_accumulation_steps 8 \--lr_scheduler_type cosine \--max_grad_norm 1.0 \--logging_steps 5 \--save_steps 100 \--warmup_steps 4 \--packing False \--report_to none \--output_dir saves/DeepSeek-R1-1.5B-Distill/lora/train_lora_02 \--bf16 True \--plot_loss True \--trust_remote_code True \--ddp_timeout 180000000 \--include_num_input_tokens_seen True \--optim adamw_torch \--lora_rank 16 \--lora_alpha 16 \--lora_dropout 0 \--lora_target all

可以看到我所有卡都用上了:

完成之后,会展示损失函数:

在输出目录可以看到微调好的权重:

使用

对于训练好的模型,如果是像上图这像的分开存储的权重,可以通过配置检查点路径进行调用

需要提前安装vllm

pip install vllm==0.7.2

如果安装慢,网络连接不上,可以使用-i指定源:

 pip install vllm==0.7.2 -i https://pypi.tuna.tsinghua.edu.cn/simple/

常用的国内源:

阿里云:https://mirrors.aliyun.com/pypi/simple/
豆瓣:https://pypi.douban.com/simple/
清华大学:https://pypi.tuna.tsinghua.edu.cn/simple/
中国科学技术大学:https://pypi.mirrors.ustc.edu.cn/simple/

也可以通过 <font style="color:rgb(0, 0, 0);">llamafactory-cli export merge_config.yaml</font> 指令来合并模型。

### model
model_name_or_path: /mnt/largeroom/llm/model/DeepSeek-R1-Distill-Qwen-1.5B
adapter_name_or_path: /mnt/largeroom/zhurunhua/LLaMA-Factory/saves/DeepSeek-R1-1.5B-Distill/lora/train_lora_02
template: deepseek3
finetuning_type: lora### export
export_dir: /mnt/largeroom/llm/model/deepseek-r1-1.5b-peft
export_size: 2
export_device: cpu
export_legacy_format: false

http://www.ppmy.cn/news/1574578.html

相关文章

【含开题报告+文档+PPT+源码】基于springboot加vue 前后端分离的校园新闻审核发布管理系统

开题报告 本研究旨在设计并实现一套基于SpringBoot后端框架结合Vue前端技术的校园新闻发布系统&#xff0c;该系统面向学生用户群体提供了全面的功能服务。学生用户通过身份验证登录后&#xff0c;能够便捷高效地获取校园内的各类新闻资讯&#xff0c;实时了解校内动态。系统不…

基于SSM的《计算机网络》题库管理系统(源码+lw+部署文档+讲解),源码可白嫖!

摘 要 《计算机网络》题库管理系统是一种新颖的考试管理模式&#xff0c;因为系统是用Java技术进行开发。系统分为三个用户进行登录并操作&#xff0c;分别是管理员、教师和学生。教师在系统后台新增试题和试卷&#xff0c;学生进行在线考试&#xff0c;还能对考生记录、错题…

从三个维度了解 RPC(Remote Procedure Call,远程过程调用)

1. 什么是远程调用 远程调用是指在分布式系统中&#xff0c;不同进程或服务之间通过网络进行通信和数据交换的过程。与本地调用不同&#xff0c;远程调用涉及跨越网络边界&#xff0c;通常需要处理网络延迟、传输协议、序列化/反序列化等问题。 特点&#xff1a; 跨进程通信…

矩阵-矩阵置零

矩阵置零 给定一个 m x n 的矩阵&#xff0c;如果一个元素为 0 &#xff0c;则将其所在行和列的所有元素都设为0 。请使用 原地 算法。在计算机科学中&#xff0c;一个原地算法&#xff08;in-place algorithm&#xff09;是一种使用小的&#xff0c;固定数量的额外之空间来转…

《UE教程》第四章第一到三回——基本数据类型(UE4/5通用)

一、实例化BP_Actor 在《UE教程》第二章第二回——关卡蓝图和Actor蓝图中&#xff0c;我们将BP_Actor实例化。 二、整型 打开BP_Actor&#xff0c;声明一个整型&#xff08;整数&#xff09;变量。 三、浮点 四、布尔 五、字节 声明完成后&#xff0c;编译并保存蓝图。

如何优化 Webpack 的构建速度?

优化 Webpack 的构建速度是现代前端开发中至关重要的任务。随着项目规模的扩大&#xff0c;构建时间可能会显著增加&#xff0c;影响开发效率。以下是一些实用的方法和策略&#xff0c;以帮助你优化 Webpack 的构建速度。 一、使用生产模式和开发模式 1. 生产模式与开发模式 …

计算机网络抄手 运输层

一、运输层协议概述 1. 进程之间的通信 从通信和信息处理的角度看&#xff0c;运输层向它上面的应用层提供通信服务&#xff0c;它属于面向通信部分的最高层&#xff0c;同时也是用户功能中的最低层。当网络边缘部分的两台主机使用网络核心部分的功能进行端到端的通信时&…

计算机网络真题练习(高软29)

系列文章目录 计算机网络阶段练习 文章目录 系列文章目录前言一、真题练习总结 前言 计算机网络的阶段练习题&#xff0c;带解析答案。 一、真题练习 总结 就是高软笔记&#xff0c;大佬请略过&#xff01;