LightGBM:修订间差异

来自决策链云智库
无编辑摘要
 
(未显示同一用户的6个中间版本)
第28行: 第28行:
}}
}}


==算法概述==
LightGBM(Light Gradient-Boosting Machine)<ref>"LightGBM." Wikipedia: The Free Encyclopedia. Wikimedia Foundation, Inc., 22 Jan. 2024. Web. 22 Jan. 2024.</ref>,是一个用于机器学习的免费开源分布式梯度提升框架,最初由微软开发。它基于决策树算法,用于排序、分类和其他机器学习任务。开发的重点是性能和可扩展性。


==示例代码-LightGBM分类节点==
该节点使用Python编写,调用lightgbm包<ref>{{cite web
| title = lightgbm pakage
| url = https://github.com/microsoft/LightGBM
| access-date = 2024-01-22
}}</ref>。以下为示例代码:
<syntaxhighlight lang="Python">
import lightgbm as lgb
import numpy as np
data = np.random.rand(500, 10)  # 500 entities, each contains 10 features
label = np.random.randint(2, size=500)  # binary target
train_data = lgb.Dataset(data, label=label)
num_round = 10
bst = lgb.train(param, train_data, num_round, valid_sets=train_data)
</syntaxhighlight>
如果想使用完全代码请参考:https://lightgbm.readthedocs.io/en/stable/Python-Intro.html
拟合后,模型可以用于预测样本的类别,可以在[[通用预测模块]]实现内外部测试集的预测。
=='''节点使用指南'''==
* 最适用的场景:可用于解决分类问题,其中目标是将数据分为不同的类别或预测数据的类别。
* 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。
===变量配置===
* 选择特征变量:作为特征进行学习的变量(X),多选。
* 选择目标变量:作为结局的二分类变量(y),单选。
===参数配置===
* 设置随机数:控制模型的随机性。
* 弱学习器类型:
** gbdt(默认):梯度提升决策树(Gradient Boosting Decision Tree)。这是传统的梯度提升框架,使用了Leaf-wise决策树。
** dart:DART(Dropouts meet Multiple Additive Regression Trees)。DART是LightGBM的一种改进算法,它在训练过程中引入了随机性,通过丢弃(dropout)弱学习器来减少过拟合的风险。
** rf:随机森林(Random Forest)。随机森林是一种集成学习方法,通过随机选择特征和样本来构建多个决策树,并使用投票或平均来进行预测。
* 学习率:默认为0.1。
===注意事项===
* 不支持带空值运算,用[[多重插补]]或[[插补空值]]进行插补,
* 节点不出图,
* 导入该节点的数据端口为训练数据集,导入前注意转换。
== 参考文献 ==
{{reflist}}


{{Navplate AlgorithmNodeList}}
{{Navplate AlgorithmNodeList}}


[[Category:分类训练器]]
[[Category:分类训练器]]

2024年1月23日 (二) 11:41的最新版本

Boosting LightGBM Learner.png
节点状态
Windows / Windows 10 Win10及以上可用
V1.0部署
LightGBMBoosting LightGBM Learner.svg
节点开发者决策链算法研发部 (Dev.Team-DPS)
节点英文名Boosting_LightGBM Learner
功能主类别机器学习
英文缩写LightGBM
功能亚类别分类训练器
节点类型数据挖掘
开发语言Python
节点简介

LightGBM是一种基于梯度提升树(Gradient Boosting Tree)的机器学习算法,由微软开发。它是一种高效且可扩展的梯度提升树框架,用于解决分类和回归问题。LightGBM的设计目标是提供快速、准确和高效的模型训练和预测。

端口数量与逻辑控制(PC)
Input-入口2个
Output-出口3个
Loop-支持循环
If/Switch-支持逻辑判断
输入输出
可生成图片类型(推荐)
可生成数据表类型(推荐)
相关节点
上一节点Logistic分类器
下一节点随机森林



算法概述

LightGBM(Light Gradient-Boosting Machine)[1],是一个用于机器学习的免费开源分布式梯度提升框架,最初由微软开发。它基于决策树算法,用于排序、分类和其他机器学习任务。开发的重点是性能和可扩展性。

示例代码-LightGBM分类节点

该节点使用Python编写,调用lightgbm包[2]。以下为示例代码:

import lightgbm as lgb
import numpy as np

data = np.random.rand(500, 10)  # 500 entities, each contains 10 features
label = np.random.randint(2, size=500)  # binary target
train_data = lgb.Dataset(data, label=label)

num_round = 10
bst = lgb.train(param, train_data, num_round, valid_sets=train_data)

如果想使用完全代码请参考:https://lightgbm.readthedocs.io/en/stable/Python-Intro.html

拟合后,模型可以用于预测样本的类别,可以在通用预测模块实现内外部测试集的预测。

节点使用指南

  • 最适用的场景:可用于解决分类问题,其中目标是将数据分为不同的类别或预测数据的类别。
  • 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。

变量配置

  • 选择特征变量:作为特征进行学习的变量(X),多选。
  • 选择目标变量:作为结局的二分类变量(y),单选。

参数配置

  • 设置随机数:控制模型的随机性。
  • 弱学习器类型:
    • gbdt(默认):梯度提升决策树(Gradient Boosting Decision Tree)。这是传统的梯度提升框架,使用了Leaf-wise决策树。
    • dart:DART(Dropouts meet Multiple Additive Regression Trees)。DART是LightGBM的一种改进算法,它在训练过程中引入了随机性,通过丢弃(dropout)弱学习器来减少过拟合的风险。
    • rf:随机森林(Random Forest)。随机森林是一种集成学习方法,通过随机选择特征和样本来构建多个决策树,并使用投票或平均来进行预测。
  • 学习率:默认为0.1。

注意事项

  • 不支持带空值运算,用多重插补插补空值进行插补,
  • 节点不出图,
  • 导入该节点的数据端口为训练数据集,导入前注意转换。

参考文献

  1. "LightGBM." Wikipedia: The Free Encyclopedia. Wikimedia Foundation, Inc., 22 Jan. 2024. Web. 22 Jan. 2024.
  2. "lightgbm pakage". Retrieved 2024-01-22.

查找其他类别的节点,请参考以下列表