7集成学习评分卡

server/2024/11/13 10:27:41/

集成学习评分卡

学习目标

  • 知道LightGBM基本原理
  • 掌握使用lightGBM进行特征筛选的方法

1 Gradient Boosting算法回顾

Gradient Boosting 基本原理

  • 训练一个模型m1,产生错误e1
  • 针对e1训练一个模型m2,产生错误e2
  • 针对e2训练第三个模型m3,产生错误e3 …
  • 最终预测结果是:m1+m2+m3+…

GBDT是boosting的一种方法,主要思想:

每一次建立单个分类器时,是在之前建立的模型的损失函数的梯度下降方向。

损失函数越大,说明模型越容易出错,如果我们的模型能让损失函数持续的下降,则说明我们的模型在持续不断的改进,而最好的方式就是让损失函数在其梯度的方向上下降。

GBDT的核心在于每一棵树学的是之前所有树结论和的残差

  • 残差就是真实值与预测值的差值

Shrinkage(缩减)是 GBDT 的一个重要演进分支

  • Shrinkage的思想在于每次走一小步来逼近真实的结果,比直接迈大步的方式好
  • Shrinkage可以有效减少过拟合的风险。它认为每棵树只学到了一小部分,累加的时候只累加这一小部分,通过多学习几棵树来弥补不足

GBDT可以用于回归问题(线性和非线性),也可用于分类问题
在这里插入图片描述

GBDT和随机森林的异同点

相同点:

  • 都是由多棵树构成,最终的结果也是由多棵树决定。

不同点:

  • 随机森林可以由分类树和回归树组成,GBDT只能由回归树组成。
  • 随机森林的树可以并行生成,而GBDT只能串行生成,所以随机森林的训练速度相对较快。
  • 随机森林关注减小模型的方差,GBDT关注减小模型的偏差

在这里插入图片描述
在这里插入图片描述

  • 随机森林对异常值不敏感,GBDT对异常值较为敏感。
  • 随机森林最终的结果是多数投票或简单平均,而GBDT是加权累计起来。

GBDT的优缺点

优点:

  • GBDT每一次的残差计算都增大了分错样本的权重,而分对的权重都趋近于0,因此泛化性能比较好。
  • 可以灵活的处理各种类型的数据。
  • 预测精度高

缺点:

  • 对异常值比较敏感。
  • 由于分类器之间存在依赖关系,所以很难进行并行计算。

XGBoost与GDBT的区别

区别一:

  • XGBoost生成CART树考虑了树的复杂度,
  • GDBT未考虑,GDBT在树的剪枝步骤中考虑了树的复杂度。

区别二:

  • XGBoost是拟合上一轮损失函数的二阶导展开,GDBT是拟合上一轮损失函数的一阶导展开
  • XGBoost的准确性更高,且满足相同的训练效果,需要的迭代次数更少。

区别三:

  • XGBoost与GDBT都是逐次迭代来提高模型性能,但是XGBoost在选取最佳切分点时可以开启多线程进行,大大提高了运行速度。

2 LightGBM

1 Histogram-based Gradient Boosting

为了理解Histogram-based Gradient Boosting的原理, 我们回顾一下回归决策树的构建过程。在回归树生长的过程中, 我们需要遍历每一个特征, 如果是连续型特征:

  • 需要将每个特征的值排序
  • 遍历所有的特征取值,尝试所有的可能分裂方式, 并计算每种分裂方式的误差
  • 找到误差最小的一个,得到当前节点的分裂方式

上述过程的计算量明显会随着样本数量以及特征维度的增加而成倍增长。假设我们有100万样本,100个数值类特征我们最多需要尝试 100万 X 100 =1亿次计算才能得到一个节点如何划分, 显然这种树的分裂方式在数据量很大的时候会导致训练速度缓慢

如何能加速训练的过程?一种改进方案是将特征值进行分箱处理,依然假设有100万样本,100个数值类特征。此时将每个特征列分箱为 100 箱。 现在,要找到最佳分割点,我们只需要进行100 X 100次计算就可以找到最佳分割点,对比之前的方案, 计算量最多减少了 10000倍

看下面的例子

import matplotlib.pyplot as plt
import matplotlib.patches as patches  # 形状:指的是 matplotlib.patches 包里面的一些对象,比如我们常见的箭头,正方形,椭圆等等,也称之为“块”。
n_samples = 50
n_bins = 5
X = np.random.uniform(low=-6.0, high=6.0, size=(n_samples, ))
X = np.sort(X)
y = 1 / (1 + np.exp(-X))# 绘制数据
fig, ax = plt.subplots(nrows=1, ncols=3, figsize=(13, 4))
ax[0].scatter(X, y, s=10)
ax[0].set_title('1d regression problem with {0} points'.format(n_samples))
ax[0].set_xlabel('X')
ax[0].set_ylabel('y')# 绘制标准的分割方式
ax[1].scatter(X, y, s=10)
for i in range(n_samples - 1):split = (X[i] + X[i-1]) / 2ax[1].plot([split, split], [0.0, 1.0], c='r', linewidth=1) # c 颜色  linewidth 线宽
ax[1].set_title('Standard: {0} splits to consider'.format(n_samples - 1))
ax[1].set_xlabel('X')
ax[1].set_ylabel('y')# 找到最佳分割点
best = (-np.inf, np.inf)
for i in range(n_samples - 1):split = (X[i] + X[i-1]) / 2loss = np.mean((y[X <= split] - np.mean(y[X <= split]))**2) + np.mean((y[X > split] - np.mean(y[X > split]))**2)if loss <= best[1]:best = (split, loss)
print(best)
ax[1].plot([best[0], best[0]], [0., 1.], linewidth=3, linestyle='--', c='k')ax[2].scatter(X, y, s=10)
splits = [X[0],X[10],X[20],X[30],X[40],X[49]]
for split in splits:ax[2].plot([split, split], [0.0, 1.0], c='r', linewidth=1)
bin_colors = ['#8000ff', '#1996f3', '#4df3ce', '#b2f396', '#ff964f', '#ff0000']
for i in range(n_bins):ax[2].add_patch(patches.Rectangle((splits[i], 0.0), splits[i+1] - splits[i], 1.0, color=bin_colors[i], alpha=0.2))
ax[2].set_title('Histogram with {0} bins: {0} splits to consider'.format(n_bins))
ax[2].set_xlabel('X')
ax[2].set_ylabel('counts')# 找到分箱之后的最佳分割点
best = (-np.inf, np.inf)
splits = [X[0],X[10],X[20],X[30],X[40],X[49]]
for split in splits:loss = np.mean((y[X <= split] - np.mean(y[X <= split]))**2) + np.mean((y[X > split] - np.mean(y[X > split]))**2)if loss <= best[1]:best = (split, loss)
print(best)
ax[2].plot([best[0], best[0]], [0., 1.], linewidth=3, linestyle='--', c='k')

(0.1834031699694303, 0.044419292201901245) (0.38106574907332114, 0.045130335725236406)

在这里插入图片描述

上面的图中, 我们对比了标准回归树分裂方式,和基于直方图的回归树的分裂方式。 在标准的回归树分裂方式中,我们尝试了49种不同的分裂方式,得到了最佳分裂点, 而基于直方图的回归树,我们只尝试了4次就找到了最佳分裂方式。如果数据规模进一步扩大, 采用直方图的回归树,训练的速度会更快!

Histogram-based Gradient Boosting 的Sklearn实现

from sklearn.experimental import enable_hist_gradient_boosting #属于实验版本
from sklearn.ensemble import HistGradientBoostingClassifier
from sklearn.datasets import load_breast_cancer
from sklearn.model_selection import train_test_split
X,y = load_breast_cancer(return_X_y = True)
X_train ,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=45)
histGBC = HistGradientBoostingClassifier(max_depth=2,max_iter=20,learning_rate=0.75)
histGBC.fit(X_train,y_train)
histGBC.score(X_test,y_test)

0.9824561403508771

SKlearn中 HistGradientBoosting 的思想实际上受到了lightGBM启发,相当于是lightGBM的sklearn版本

2 lightGBM原理

lightGBM(Light Gradient Boosted Machines)是2017年1月,微软在GItHub上开源的一个新的梯度提升框架。LightGBM 的核心原理是基于直方图的梯度提升方法,它具有以下优势:

  • 算法加速,例如基于梯度的单边采样和对互斥特征的合并处理,使lightGBM的训练速度更快和占用内存更低
  • 支持大量用于分类、回归和排名的损失函数,支持自定义损失函数
  • 支持并行和 GPU 学习,使其能够处理大规模数据集

LightGBM除了在建树的过程中, 除了采用分箱的方式来处理特征值,还采用了

  • Gradient-based One Side Sampling (GOSS) 减少参与模型训练的样本数量
  • Exclusive

http://www.ppmy.cn/server/41822.html

相关文章

Oracle21c数据库普通用户创建及授权,建表,创建存储过程、序列、触发器

一、Oracle数据库错误 ORA-65096 表示你尝试在多租户容器数据库&#xff08;CDB&#xff09;环境中创建一个公共用户&#xff08;common user&#xff09;或角色&#xff0c;但没有使用正确的前缀。在多租户架构中&#xff0c;公共用户的用户名必须以 C## 或 c## 开头。 若想…

【AI智能体】零代码构建AI应用,全网都在喊话歌手谁能应战,一键AI制作歌手信息查询应用

欢迎来到《小5讲堂》 这是《文心智能体平台》系列文章&#xff0c;每篇文章将以博主理解的角度展开讲解。 温馨提示&#xff1a;博主能力有限&#xff0c;理解水平有限&#xff0c;若有不对之处望指正&#xff01; 目录 文心智能体大赛背景创建应用平台地址快速构建【基础配置】…

【Web后端】servlet基本概念

1.ServletAPI架构 HttpServlet继承GenericServletGenericServlet实现了Servlet接口&#xff0c;ServletConfig接口,Serializable接口自定义Servlet继承HttpServlet 2.Servlet生命周期 第一步&#xff1a;容器加载Servlet第二步&#xff1a;调用Servlet的无参构造方法&#xf…

Android 获取已安装应用、包名、应用名、版本号、版本名

1、相关代码 List<ApplicationInfo> installedApps getPackageManager().getInstalledApplications(0);for (ApplicationInfo appInfo : installedApps) {CharSequence getAppName getPackageManager().getApplicationLabel(appInfo);String appNamegetAppName.toStrin…

java(实验拓展)工厂模式和原型模式

工厂模式 简单来说是一种创建型设计模式&#xff0c;它提供了一种创建对象的最佳实践&#xff0c;这种模式提供了一种抽象工厂&#xff0c;通过使用工厂方法来创建对象。工厂方法将对象的创建推迟到子类中&#xff0c;这样就可以实现对象的创建和使用解耦。 一、概念 工厂模…

练习题(2024/5/14)

1四数相加 II 给你四个整数数组 nums1、nums2、nums3 和 nums4 &#xff0c;数组长度都是 n &#xff0c;请你计算有多少个元组 (i, j, k, l) 能满足&#xff1a; 0 < i, j, k, l < nnums1[i] nums2[j] nums3[k] nums4[l] 0 示例 1&#xff1a; 输入&#xff1a;n…

Vue 常见通信

Vue 常见通信 1、父子通信 父传子 props&#xff0c;子传父 events&#xff08;$emit&#xff09;&#xff1b; 通过父链 / 子链 通信$parent / $children&#xff1b; $refs获取ref 可以访问组件实例方法&#xff0c;&#xff1b; 提供与注射provide / inject a t t r s …

vscode切换分支及合并分支操作教程

工具&#xff1a;gitee、git 、vscode、Git Graph 点击可以看到分支管理明细。 一、前提 1、首先要有两个分支 &#xff08;1&#xff09;分支说明&#xff1a; test&#xff1a; 测试分支 feature/luo-20240508&#xff1a;自己的开发分支 &#xff08;2&#xff09;分支说…