可生成图片类型(推荐)
可生成数据表类型(推荐)
(→算法概述) |
|||
第29行: | 第29行: | ||
==算法概述== | ==算法概述== | ||
Gradient Boosting是一种基于函数空间(functional space)中增强的机器学习方法,其中目标函数是伪残差(pseudo-residuals),而不是传统增强中使用的典型残差。它给出了弱学习模型进行集成后的预测模型,即对数据进行很少的假设的模型,这些模型通常是简单的决策树。<ref></ref>当决策树是弱学习器时,所得到的算法被称为梯度增强树;它通常优于随机森林。<ref></ref>与其他Boosting方法一样,梯度提升树模型是以分阶段的方式构建的,但它通过允许优化任意可微损失函数来推广其他方法。 | Gradient Boosting是一种基于函数空间(functional space)中增强的机器学习方法,其中目标函数是伪残差(pseudo-residuals),而不是传统增强中使用的典型残差。它给出了弱学习模型进行集成后的预测模型,即对数据进行很少的假设的模型,这些模型通常是简单的决策树。<ref>{{cite journal |title=Data analytics in asset management: Cost-effective prediction of the pavement condition index |author=Piryonesi, S. Madeh and El-Diraby, Tamer E. |journal=Journal of Infrastructure Systems |volume=26 |issue=1 |pages=04019036 |year=2020 |publisher=American Society of Civil Engineers}}</ref><ref>{{cite book |title=The elements of statistical learning: data mining, inference, and prediction |author=Hastie, Trevor and Tibshirani, Robert and Friedman, Jerome |pages=337–387 |year=2009 |publisher=Springer}}</ref>当决策树是弱学习器时,所得到的算法被称为梯度增强树;它通常优于随机森林。<ref>{{cite web | ||
|title=Gradient Boosting | |||
|url=https://en.wikipedia.org/wiki/Gradient_boosting | |||
|website=Wikipedia | |||
|access-date=2024-01-18 | |||
}}</ref>与其他Boosting方法一样,梯度提升树模型是以分阶段的方式构建的,但它通过允许优化任意可微损失函数来推广其他方法。 | |||
==示例代码-梯度提升树分类节点== | ==示例代码-梯度提升树分类节点== |
节点状态 | PC可用
在 V1.0部署
|
---|---|
梯度提升树 | |
节点开发者 | 决策链算法研发部 (Dev.Team-DPS) |
节点英文名 | 梯度提升树 |
功能主类别 | 机器学习 |
英文缩写 | 梯度提升树 |
功能亚类别 | 分类训练器 |
节点类型 | 数据挖掘 |
开发语言 | Python |
节点简介 | |
梯度提升树(Gradient Boosting Tree)是一种集成学习算法,通过迭代地训练弱学习器(通常是决策树),并将它们组合成一个强大的预测模型。与其他集成学习方法(如随机森林)不同,梯度提升树是通过优化损失函数的梯度来逐步改进模型的。 | |
端口数量与逻辑控制(PC) | |
Input-入口 | 2个 |
Output-出口 | 3个 |
Loop-支持循环 | 否 |
If/Switch-支持逻辑判断 | 否 |
输入输出 | |
相关节点 | |
上一节点 | 支持向量机 |
下一节点 | AdaBoost |
相关网站 |
Gradient Boosting是一种基于函数空间(functional space)中增强的机器学习方法,其中目标函数是伪残差(pseudo-residuals),而不是传统增强中使用的典型残差。它给出了弱学习模型进行集成后的预测模型,即对数据进行很少的假设的模型,这些模型通常是简单的决策树。[1][2]当决策树是弱学习器时,所得到的算法被称为梯度增强树;它通常优于随机森林。[3]与其他Boosting方法一样,梯度提升树模型是以分阶段的方式构建的,但它通过允许优化任意可微损失函数来推广其他方法。
该节点使用Python编写,调用scikit-learn包[4]。以下为示例代码:
from sklearn.datasets import make_hastie_10_2
from sklearn.ensemble import GradientBoostingClassifier
X, y = make_hastie_10_2(random_state=0)
X_train, X_test = X[:2000], X[2000:]
y_train, y_test = y[:2000], y[2000:]
clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0,
max_depth=1, random_state=0).fit(X_train, y_train)
clf.score(X_test, y_test)
拟合后,模型可以用于预测样本的类别,可以在通用预测模块实现内外部测试集的预测。
{{cite journal}}
: CS1 maint: multiple names: authors list (link)
{{cite book}}
: CS1 maint: multiple names: authors list (link)
查找其他类别的节点,请参考以下列表