可生成图片类型(推荐)
可生成数据表类型(推荐)
(→算法概述) |
(→参数配置) |
||
第64行: | 第64行: | ||
===参数配置=== | ===参数配置=== | ||
* 设置随机数:控制模型的随机性。 | * 设置随机数:控制模型的随机性。 | ||
* | * 弱学习器类型: | ||
* | ** gbdt(默认):梯度提升决策树(Gradient Boosting Decision Tree)。这是传统的梯度提升框架,使用了Leaf-wise决策树。 | ||
* | ** dart:DART(Dropouts meet Multiple Additive Regression Trees)。DART是LightGBM的一种改进算法,它在训练过程中引入了随机性,通过丢弃(dropout)弱学习器来减少过拟合的风险。 | ||
** rf:随机森林(Random Forest)。随机森林是一种集成学习方法,通过随机选择特征和样本来构建多个决策树,并使用投票或平均来进行预测。 | |||
* 学习率:默认0.1。 | * 学习率:默认0.1。 | ||
节点状态 | / Win10及以上可用
在V1.0部署
|
---|---|
XGBoost | |
节点开发者 | 决策链算法研发部 (Dev.Team-DPS) |
节点英文名 | Boosting_XGBoost |
功能主类别 | 机器学习 |
英文缩写 | XGBoost |
功能亚类别 | 分类训练器 |
节点类型 | 数据挖掘 |
开发语言 | Python |
节点简介 | |
XGBoost(eXtreme Gradient Boosting)是一种梯度提升树算法的变体,它在梯度提升树的基础上进行了改进和优化。 XGBoost在各种机器学习竞赛和实际应用中表现优秀,被广泛应用于分类、回归和排名等问题。 | |
端口数量与逻辑控制(PC) | |
Input-入口 | 2个 |
Output-出口 | 3个 |
Loop-支持循环 | 否 |
If/Switch-支持逻辑判断 | 否 |
输入输出 | |
相关节点 | |
上一节点 | AdaBoost |
下一节点 | CatBoost |
相关网站 |
Boosting是一种高效且广泛使用的机器学习方法。在该节点中,我们描述了一种称为XGBoost(eXtreme Gradient Boosting)[1]的可扩展端到端树提升系统,该系统被数据科学家广泛使用,以在许多机器学习挑战中取得最先进的结果。XGBoost提出了一种新的稀疏数据稀疏性感知算法和近似树学习的加权分位数图。通过结合这些技术,XGBoost能够使用比现有系统少得多的资源得到更精确的结果。
该节点使用Python编写,调用xgboost包[2]。以下为示例代码:
import xgboost as xgb
# Load Pandas Data
data = np.random.rand(5, 10) # 5 entities, each contains 10 features
label = np.random.randint(2, size=5) # binary target
dtrain = xgb.DMatrix(data, label=label)
num_round = 10
bst = xgb.train(param, dtrain, num_round, evallist)
如果想使用完全代码请参考:https://xgboost.readthedocs.io/en/stable/python
拟合后,模型可以用于预测样本的类别,可以在通用预测模块实现内外部测试集的预测。
{{cite conference}}
: Unknown parameter |booktitle=
ignored (|book-title=
suggested) (help)
查找其他类别的节点,请参考以下列表