LightGBM

来自决策链云智库
Wurong讨论 | 贡献2024年1月22日 (一) 11:16的版本
Boosting LightGBM Learner.png
节点状态
Windows / Windows 10 Win10及以上可用
V1.0部署
LightGBMBoosting LightGBM Learner.svg
节点开发者决策链算法研发部 (Dev.Team-DPS)
节点英文名Boosting_LightGBM Learner
功能主类别机器学习
英文缩写LightGBM
功能亚类别分类训练器
节点类型数据挖掘
开发语言Python
节点简介

LightGBM是一种基于梯度提升树(Gradient Boosting Tree)的机器学习算法,由微软开发。它是一种高效且可扩展的梯度提升树框架,用于解决分类和回归问题。LightGBM的设计目标是提供快速、准确和高效的模型训练和预测。

端口数量与逻辑控制(PC)
Input-入口2个
Output-出口3个
Loop-支持循环
If/Switch-支持逻辑判断
输入输出
可生成图片类型(推荐)
可生成数据表类型(推荐)
相关节点
上一节点Logistic分类器
下一节点随机森林



算法概述

示例代码-LightGBM分类节点

该节点使用Python编写,调用xgboost包[1]。以下为示例代码:

import xgboost as xgb
# Load Pandas Data
data = np.random.rand(5, 10)  # 5 entities, each contains 10 features
label = np.random.randint(2, size=5)  # binary target
dtrain = xgb.DMatrix(data, label=label)

num_round = 10
bst = xgb.train(param, dtrain, num_round, evallist)

如果想使用完全代码请参考:https://xgboost.readthedocs.io/en/stable/python

拟合后,模型可以用于预测样本的类别,可以在通用预测模块实现内外部测试集的预测。

节点使用指南

  • 最适用的场景:可用于解决分类问题,其中目标是将数据分为不同的类别或预测数据的类别。
  • 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。

变量配置

  • 选择特征变量:作为特征进行学习的变量(X),多选。
  • 选择目标变量:作为结局的二分类变量(y),单选。

参数配置

  • 设置随机数:控制模型的随机性。
  • 弱学习器类型:
    • gbdt(默认):梯度提升决策树(Gradient Boosting Decision Tree)。这是传统的梯度提升框架,使用了Leaf-wise决策树。
    • dart:DART(Dropouts meet Multiple Additive Regression Trees)。DART是LightGBM的一种改进算法,它在训练过程中引入了随机性,通过丢弃(dropout)弱学习器来减少过拟合的风险。
    • rf:随机森林(Random Forest)。随机森林是一种集成学习方法,通过随机选择特征和样本来构建多个决策树,并使用投票或平均来进行预测。
  • 学习率:默认0.1。

注意事项

  • 不支持带空值运算,用多重插补插补空值进行插补,
  • 节点不出图,
  • 导入该节点的数据端口为训练数据集,导入前注意转换。

参考文献

  1. "xgboost pakage". Retrieved 2024-01-22.

查找其他类别的节点,请参考以下列表