XGBoost:修订间差异

来自决策链云智库
第29行: 第29行:


==算法概述==
==算法概述==
CatBoost是Yandex开发的开源软件库。它提供了一个梯度增强框架,其中尝试使用与经典算法相比的排列驱动替代方案来解决分类特征<ref>Zhang, Yixiao; Zhao, Zhongguo; Zheng, Jianghua (2020). "CatBoost: A new approach for estimating daily reference crop evapotranspiration in arid and semi-arid regions of Northern China." ''Journal of Hydrology'' 588: 125087. Elsevier.</ref>。它适用于Linux、Windows、macOS,并且可用于 Python、R,并且使用 catboost 构建的模型可用于C++、Java、C#、Rust、Core ML中的预测、ONNX和PMML。源代码已根据Apache 许可证获得许可,并可在 GitHub 上获取。


==示例代码-XGBoost分类节点==
==示例代码-XGBoost分类节点==

2024年1月22日 (一) 10:46的版本

Boosting XGBoost.png
节点状态
Windows / Windows 10 Win10及以上可用
V1.0部署
XGBoostBoosting XGBoost.svg
节点开发者决策链算法研发部 (Dev.Team-DPS)
节点英文名Boosting_XGBoost
功能主类别机器学习
英文缩写XGBoost
功能亚类别分类训练器
节点类型数据挖掘
开发语言Python
节点简介

XGBoost(eXtreme Gradient Boosting)是一种梯度提升树算法的变体,它在梯度提升树的基础上进行了改进和优化。

XGBoost在各种机器学习竞赛和实际应用中表现优秀,被广泛应用于分类、回归和排名等问题。

端口数量与逻辑控制(PC)
Input-入口2个
Output-出口3个
Loop-支持循环
If/Switch-支持逻辑判断
输入输出
可生成图片类型(推荐)
可生成数据表类型(推荐)
相关节点
上一节点AdaBoost
下一节点CatBoost



算法概述

示例代码-XGBoost分类节点

该节点使用Python编写,调用xgboost包[1]。以下为示例代码:

import xgboost as xgb
# Load Pandas Data
data = np.random.rand(5, 10)  # 5 entities, each contains 10 features
label = np.random.randint(2, size=5)  # binary target
dtrain = xgb.DMatrix(data, label=label)

num_round = 10
bst = xgb.train(param, dtrain, num_round, evallist)

如果想使用完全代码请参考:https://xgboost.readthedocs.io/en/stable/python

拟合后,模型可以用于预测样本的类别,可以在通用预测模块实现内外部测试集的预测。

节点使用指南

  • 最适用的场景:决策树可用于解决分类问题,其中目标是将数据分为不同的类别或预测数据的类别。
  • 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。

变量配置

  • 选择特征变量:作为特征进行学习的变量(X),多选。
  • 选择目标变量:作为结局的二分类变量(y),单选。

参数配置

  • 设置随机数:控制模型的随机性。
  • 评估算法:训练中使用的指标。指定的值还决定了要解决的机器学习问题。可选Logloss, 交叉熵, Precision, Recall, F1, MCC。
  • 树深:树的最大深度。
  • 迭代次数:使用CatBoost解决机器学习问题时可以构建的最大迭代次数。
  • 学习率:默认0.1。

注意事项

  • 不支持带空值运算,用多重插补插补空值进行插补,
  • 节点不出图,
  • 导入该节点的数据端口为训练数据集,导入前注意转换。

参考文献

  1. Chen, Tianqi; Guestrin, Carlos (2016). "Xgboost: A scalable tree boosting system". In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. pp. 785–794.

查找其他类别的节点,请参考以下列表