梯度提升树

来自决策链云智库
Wurong讨论 | 贡献2024年1月18日 (四) 09:41的版本 →‎算法概述
Boosting GBDT.png
节点状态
PC可用
V1.0部署
梯度提升树Boosting GBDT.svg
节点开发者决策链算法研发部 (Dev.Team-DPS)
节点英文名梯度提升树
功能主类别机器学习
英文缩写梯度提升树
功能亚类别分类训练器
节点类型数据挖掘
开发语言Python
节点简介

梯度提升树(Gradient Boosting Tree)是一种集成学习算法,通过迭代地训练弱学习器(通常是决策树),并将它们组合成一个强大的预测模型。与其他集成学习方法(如随机森林)不同,梯度提升树是通过优化损失函数的梯度来逐步改进模型的。

端口数量与逻辑控制(PC)
Input-入口2个
Output-出口3个
Loop-支持循环
If/Switch-支持逻辑判断
输入输出
可生成图片类型(推荐)
可生成数据表类型(推荐)
相关节点
上一节点支持向量机
下一节点AdaBoost



算法概述

Gradient Boosting是一种基于函数空间(functional space)中增强的机器学习方法,其中目标函数是伪残差(pseudo-residuals),而不是传统增强中使用的典型残差。它给出了弱学习模型进行集成后的预测模型,即对数据进行很少的假设的模型,这些模型通常是简单的决策树。[1][2]当决策树是弱学习器时,所得到的算法被称为梯度增强树;它通常优于随机森林。[3]与其他Boosting方法一样,梯度提升树模型是以分阶段的方式构建的,但它通过允许优化任意可微损失函数来推广其他方法。

示例代码-梯度提升树分类节点

该节点使用Python编写,调用scikit-learn包[4]。以下为示例代码:

from sklearn.datasets import make_hastie_10_2
from sklearn.ensemble import GradientBoostingClassifier

X, y = make_hastie_10_2(random_state=0)
X_train, X_test = X[:2000], X[2000:]
y_train, y_test = y[:2000], y[2000:]
clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0,
      max_depth=1, random_state=0).fit(X_train, y_train)
clf.score(X_test, y_test)

拟合后,模型可以用于预测样本的类别,可以在通用预测模块实现内外部测试集的预测。

节点使用指南

  • 最适用的场景:决策树可用于解决分类问题,其中目标是将数据分为不同的类别或预测数据的类别。
  • 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。

变量配置

  • 选择特征变量:作为特征进行学习的变量(X),多选。
  • 选择目标变量:作为结局的二分类变量(y),单选。

参数配置

  • 设置随机数:控制模型的随机性。
  • 基础估计器选择:构建增强整体的基本估计器。默认基本估计器用决策树分类估计器,初始化最大深度为1。
    • 决策树,
    • 支持向量机。
  • 估计器数量:默认为100。
  • Boosting算法选择:SAMME.R 算法通常比 SAMME 收敛得更快,从而通过更少的提升迭代实现更低的测试误差。
    • SAMME:离散增强算法。
    • SAMME.R:真实增强算法。
  • 学习率:在每次迭代时应用于每个分类器的权重。较高的学习率会增加每个分类器的贡献。

注意事项

  • 不支持带空值运算,用多重插补插补空值进行插补,
  • 节点不出图,
  • 导入该节点的数据端口为训练数据集,导入前注意转换。

参考文献

  1. Piryonesi, S. Madeh and El-Diraby, Tamer E. (2020). "Data analytics in asset management: Cost-effective prediction of the pavement condition index". Journal of Infrastructure Systems. American Society of Civil Engineers. 26 (1): 04019036.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  2. Hastie, Trevor and Tibshirani, Robert and Friedman, Jerome (2009). The elements of statistical learning: data mining, inference, and prediction. Springer. pp. 337–387.{{cite book}}: CS1 maint: multiple names: authors list (link)
  3. "Gradient Boosting". Wikipedia. Retrieved 2024-01-18.
  4. Kramer, Oliver (2016). "Scikit-learn". Machine learning for evolution strategies. Springer: 45--53.

查找其他类别的节点,请参考以下列表