轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现

ops/2024/12/24 10:18:29/

轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现

目录

    • 轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现
      • 分类效果
      • 基本描述
      • 程序设计
      • 参考资料

分类效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
未优化运行效果
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

基本描述

1.Matlab实现WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测,附带未优化模型,可以作为对比实验(完整源码和数据)
2.优化参数为叶子节点数 学习率 树的深度;
3.直接替换数据即可使用,保证程序可正常运行;
4.程序语言为matlab,程序可出分类效果图,迭代优化图,混淆矩阵图,评价指标含Precision、Recal、F1 Score、Kappa1 Score;
运行主程序mian即可,运行环境matlab2020b及以上;
5.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。
(Light Gradient Boosting Machine)是一款基于决策树算法的分布式梯度提升框架。为了满足工业界缩短模型计算时间的需求,LightGBM的设计思路主要是两点:减小数据对内存的使用,保证单个机器在不牺牲速度的情况下,尽可能地用上更多的数据;减小通信的代价,提升多机并行时的效率,实现在计算上的线性加速。
注:程序和数据放在一个文件夹
在这里插入图片描述
在这里插入图片描述

程序设计

  • 完整代码私信博主回复轻量级+鲸鱼优化!WOA-LightGBM鲸鱼优化算法优化轻量级梯度提升机分类预测Matlab实现
%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行%%  读取数据
res = xlsread('data.xlsx');%%  分析数据
num_class = length(unique(res(:, end)));  % 类别数(Excel最后一列放类别)
num_dim = size(res, 2) - 1;               % 特征维度
num_res = size(res, 1);                   % 样本数(每一行,是一个样本)
num_size = 0.7;                           % 训练集占数据集的比例
res = res(randperm(num_res), :);          % 打乱数据集(不打乱数据时,注释该行)
flag_conusion = 1;                        % 标志位为1,打开混淆矩阵(要求2018版本及以上)%%  设置变量存储数据
P_train = []; P_test = [];
T_train = []; T_test = [];%%  划分数据集
for i = 1 : num_classmid_res = res((res(:, end) == i), :);           % 循环取出不同类别的样本mid_size = size(mid_res, 1);                    % 得到不同类别样本个数mid_tiran = round(num_size * mid_size);         % 得到该类别的训练样本个数end
%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行%% 添加工具箱路径 加载工具箱
addpath("toolbox\") 
loadlibrary('lib_lightgbm.dll', 'c_api.h')%%  导入数据
res = xlsread('数据集.xlsx');               % 四个类别分别用0 1 2 3表示
rand('state',0);%%  数据分析
num_size = 0.7;                              % 训练集占数据集比例 
outdim = 1;                                  % 最后一列为输出
num_class = length(unique(res(:,end)));      % 计算类别数 
num_samples = size(res, 1);                  % 样本个数
res = res(randperm(num_samples), :);         % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim;                  % 输入特征维度%%  划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);%%  数据归一化
[P_train, ps_input] = mapminmax(P_train, 0, 1);
P_test = mapminmax('apply', P_test, ps_input);%%  矩阵转置
p_train = P_train'; p_test = P_test';
t_train = T_train'; t_test = T_test';%%  加载数据到 GBM
pv_train = lgbmDataset(p_train);
setField(pv_train, 'label', t_train);pv_test = lgbmDataset(p_test, pv_train);
setField(pv_test, 'label', t_test);%% 寻优参数设置
fun = @getObjValue;                 % 目标函数
dim = 3;                            % 优化参数个数
lb = [8, 0.1,2];                    % 优化参数目标下限[叶子节点数 学习率 树的深度]
ub = [64, 1,10];                    % 优化参数目标上限[叶子节点数 学习率 树的深度]
pop = 2;                            % 搜索数量
Max_iteration = 10;                 % 优化算法最大迭代次数  一共搜索次数:优化算法最大迭代次数*搜索数量%%  参数设置
%%  数据反归一化
T_sim1 = vec2ind(t_sim1);
T_sim2 = vec2ind(t_sim2);% %%  数据排序
% [T_train, index_1] = sort(T_train);
% [T_test , index_2] = sort(T_test );
% 
% T_sim1 = T_sim1(index_1);
% T_sim2 = T_sim2(index_2);%%  性能评价
error1 = sum((T_sim1 == T_train))/M * 100 ;
error2 = sum((T_sim2 == T_test)) /N * 100 ;%%  绘图
figure()         
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {'训练集预测结果对比'; ['准确率=' num2str(error1) '%']};
title(string)
xlim([1, M])
gridfigure
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {'测试集预测结果对比'; ['准确率=' num2str(error2) '%']};
title(string)
xlim([1, N])
grid%%  混淆矩阵
figure
cm = confusionchart(T_train, T_sim1);
cm.Title = 'Confusion Matrix for Train Data';
cm.ColumnSummary = 'column-normalized';
cm.RowSummary = 'row-normalized';figure
cm = confusionchart(T_test, T_sim2);
cm.Title = 'Confusion Matrix for Test Data';
cm.ColumnSummary = 'column-normalized';
cm.RowSummary = 'row-normalized';

参考资料

[1] https://blog.csdn.net/kjm13182345320/article/details/129036772?spm=1001.2014.3001.5502
[2] https://blog.csdn.net/kjm13182345320/article/details/128690229


http://www.ppmy.cn/ops/144540.html

相关文章

easegen将教材批量生成可控ppt课件方案设计

之前客户提出过一个需求,就是希望可以将一本教材,快速的转换为教学ppt,虽然通过人工程序脚本的方式,已经实现了该功能,但是因为没有做到通用,每次都需要修改脚本,无法让客户自行完成所有流程&am…

Kotlin学习-内置基本类型

课程内容:3-1内置类型-基本类型 声明变量val b: String "Hello World"声明一个字符类型变量 类型String写在变量名,后面是为了类型推导因为有了类型推导,可以省略String类型的显示声明 不允许类型隐式转换,不同类型之…

pyparsing如何实现嵌套捕获

在 pyparsing 中,嵌套捕获可以通过递归定义解析规则来实现。以下是实现嵌套捕获的一些关键步骤: 定义基础规则:定义一个解析器,用于捕获最基本的元素。递归引用解析器:使用 Forward 创建一个占位符解析器,…

动手学深度学习11.2. 凸性-笔记练习(PyTorch)

本节课程地址:72 优化算法【动手学深度学习v2】_哔哩哔哩_bilibili 本节教材地址:11.2. 凸性 — 动手学深度学习 2.0.0 documentation 本节开源代码:...>d2l-zh>pytorch>chapter_multilayer-perceptrons>convexity.ipynb 凸性 …

JS中的原型与原型链

1. 基本概念 原型(Prototype):每个对象都有一个内部属性 [[Prototype]],通常通过 __proto__ 访问(非标准,但广泛支持)。 原型链(Prototype Chain):对象通过原…

ShardingSphere分库分表

ShardingSphere 高性能架构模式 读写分离架构: 基本原理是将数据库读写操作分散到不同的节点上,主库负责处理事务性的增删改操作,从库负责处理查询操作。避免由数据更新导致的行锁,来提升性能。 一主一从:可以将查…

【数据安全】如何保证其安全

数据安全风险 数字经济时代,数据已成为重要的生产要素。智慧城市、智慧政务的建设,正以数据为核心,推动城市管理的智能化和公共服务的优化。然而,公共数据开放共享与隐私保护之间的矛盾日益凸显,如何在确保数据安全的…

Python OCR 文字识别

一.引言 文字识别,也称为光学字符识别(Optical Character Recognition, OCR),是一种将不同形式的文档(如扫描的纸质文档、PDF文件或数字相机拍摄的图片)中的文字转换成可编辑和可搜索的数据的技术。随着技…