可生成图片类型(推荐)
可生成数据表类型(推荐)
(→算法概述) |
(→参数配置) |
||
第52行: | 第52行: | ||
===参数配置=== | ===参数配置=== | ||
* 设置随机数:控制模型的随机性。 | * 设置随机数:控制模型的随机性。 | ||
* | * 基础估计器选择: | ||
** SAMME | |||
** SAMME.R | |||
如果是“SAMME.R”,则使用 SAMME.R 真实增强算法。 estimator必须支持类别概率的计算。如果为“SAMME”,则使用 SAMME 离散增强算法。SAMME.R 算法通常比 SAMME 收敛得更快,从而通过更少的提升迭代实现更低的测试误差。 | |||
* 损失函数算法选择:衡量分割质量的函数。支持的标准为 | * 损失函数算法选择:衡量分割质量的函数。支持的标准为 | ||
** 'gini':基尼纯度(Gini impurity), | ** 'gini':基尼纯度(Gini impurity), |
节点状态 | PC可用
在 V1.0部署
|
---|---|
AdaBoost | |
节点开发者 | 决策链算法研发部 (Dev.Team-DPS) |
节点英文名 | AdaBoost |
功能主类别 | 机器学习 |
英文缩写 | AdaBoost |
功能亚类别 | 分类训练器 |
节点类型 | 数据挖掘 |
开发语言 | Python |
节点简介 | |
AdaBoost(Adaptive Boosting)是一种集成学习算法,通过迭代地训练一系列的弱学习器(通常是决策树),并将它们组合成一个强大的预测模型。 与其他集成学习方法不同,AdaBoost通过调整样本权重来适应先前弱学习器的错误,从而提高整体模型的准确性。 | |
端口数量与逻辑控制(PC) | |
Input-入口 | 2个 |
Output-出口 | 3个 |
Loop-支持循环 | 否 |
If/Switch-支持逻辑判断 | 否 |
输入输出 | |
相关节点 | |
上一节点 | 梯度提升树 |
下一节点 | XGBoost |
相关网站 |
AdaBoost是一种元估计模型,它首先在原始数据集上拟合分类模型,然后在同一数据集上匹配分类模型的附加副本,但其中调整了错误分类实例的权重,使后续分类器更多地关注被错误分类的情况。
该节点使用Python编写,调用scikit-learn包[1]。以下为示例代码:
from sklearn import tree
X = [[0, 0], [1, 1]]
Y = [0, 1]
clf = tree.DecisionTreeClassifier()
clf = clf.fit(X, Y)
拟合后,模型可以用于预测样本的类别,可以在通用预测模块实现内外部测试集的预测。
如果是“SAMME.R”,则使用 SAMME.R 真实增强算法。 estimator必须支持类别概率的计算。如果为“SAMME”,则使用 SAMME 离散增强算法。SAMME.R 算法通常比 SAMME 收敛得更快,从而通过更少的提升迭代实现更低的测试误差。
查找其他类别的节点,请参考以下列表