决策树:修订间差异

来自决策链云智库
无编辑摘要
 
(未显示2个用户的10个中间版本)
第5行: 第5行:
|simpleicon=Decision Tree_Pure.svg
|simpleicon=Decision Tree_Pure.svg
|developer=Dev.Team-DPS
|developer=Dev.Team-DPS
|productionstate=PC可用
|productionstate={{图标文件|Win}} / {{图标文件|W10}} Win10及以上可用
|productionstatedesc=在[[DecisionLinnc | V1.0]]部署
|productionstatedesc=在[[Update:DecisionLinnc 1.0.0.8|V1.0]]部署
|nodeenglishname=[[Has english name::Decision Tree]]
|nodeenglishname=Decision Tree
|abbreviation=[[Has abbreviation::DT_C45]]
|abbreviation=DT
|funcmaincategory=机器学习
|funcmaincategory=机器学习
|funcsubcategory=[[DataML Lv1 Cat::分类训练器]]
|funcsubcategory=[[DataML Lv1 Cat::分类训练器]]
第20行: 第20行:
|nodeavailableplotlist=nodenoplotoutput
|nodeavailableplotlist=nodenoplotoutput
|nodeavailabletablelist=Table_For_Downstream
|nodeavailabletablelist=Table_For_Downstream
|nodeconfiguration=VariableList;DropManu;Text
|nodeconfiguration=VariableList;DropMenu;Text
|nodeinputports=WorkFlow-Control ➤;Transfer-Table ■
|nodeinputports=WorkFlow-Control ➤;Transfer-Table ■
|nodeoutputports=WorkFlow-Control ➤;Transfer-Model ▶;Transfer-Table ■
|nodeoutputports=WorkFlow-Control ➤;Transfer-Model ▶;Transfer-Table ■
|statsapewikiurl=https://wiki.statsape.com/决策树
|statsapewikiurl=https://wiki.statsape.com/决策树
|previousnode=[[导入测试集]]
|previousnode=[[采样方法]]
|nextnode=[[支持向量机]]
|nextnode=[[支持向量机]]
}}
}}
==算法概述==
==算法概述==
决策树通常用于运筹学,特别是决策分析,以帮助确定最有可能达到目标的策略,但也是机器学习中的一种流行工具<ref>{{cite journal |author=De Ville, Barry |title=Decision trees |journal=Wiley Interdisciplinary Reviews: Computational Statistics |volume=5 |number=6 |pages=448--455 |year=2013 |publisher=Wiley Online Library }}</ref>。机器学习中的决策树是一种用于分类和回归的非参数监督学习方法。目标是创建一个模型,通过学习从数据特征推断出的简单决策规则来预测目标变量的值。树可以看作是分段常数近似。
决策树通常用于运筹学,特别是决策分析,以帮助确定最有可能达到目标的策略,但也是机器学习中的一种流行工具<ref>{{cite journal |author=De Ville, Barry |title=Decision trees |journal=Wiley Interdisciplinary Reviews: Computational Statistics |volume=5 |number=6 |pages=448--455 |year=2013 |publisher=Wiley Online Library }}</ref>。机器学习中的决策树是一种用于分类和回归的非参数监督学习方法。目标是创建一个模型,通过学习从数据特征推断出的简单决策规则来预测目标变量的值。树可以看作是分段常数近似。
第60行: 第59行:
拟合后,模型可以用于预测样本的类别,可以在[[通用预测模块]]实现内外部测试集的预测。
拟合后,模型可以用于预测样本的类别,可以在[[通用预测模块]]实现内外部测试集的预测。


==节点使用指南==
=='''节点使用指南'''==
变量配置:
* 最适用的场景:决策树可用于解决分类问题,其中目标是将数据分为不同的类别或预测数据的类别。
* 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。
===变量配置===
* 选择特征变量:作为特征进行学习的变量(X),多选。
* 选择特征变量:作为特征进行学习的变量(X),多选。
* 选择目标变量:作为结局的变量(y)。
* 选择目标变量:作为结局的二分类变量(y),单选。


参数配置:
===参数配置===
* 设置随机数:控制模型的随机性。
* 设置随机数:控制模型的随机性。
* 拆分策略:用于在每个节点选择分裂的策略,包含最佳分割和随机分割。
* 拆分策略:用于在每个节点选择分裂的策略,包含最佳分割和随机分割。
第71行: 第72行:
** 'gini':基尼纯度(Gini impurity),
** 'gini':基尼纯度(Gini impurity),
** 'log_loss',
** 'log_loss',
** 'entropy':信息熵。
** 'entropy':信息熵。
* 最大深度:树的最大深度。如果没有,则扩展节点,直到所有叶子都是纯的或直到所有叶子包含少于"最小拆分样本数"的样本。
* 最大深度:树的最大深度。如果没有,则扩展节点,直到所有叶子都是纯的或直到所有叶子包含少于"最小拆分样本数"的样本。
* 最小拆分样本数:分裂内部节点所需的最小样本数。
* 最小拆分样本数:分裂内部节点所需的最小样本数。
第78行: 第79行:
* 最大叶节点数:以最佳优先的方式种植一棵树。最佳节点定义为杂质的相对减少。如果没有,则叶节点数量不受限制。
* 最大叶节点数:以最佳优先的方式种植一棵树。最佳节点定义为杂质的相对减少。如果没有,则叶节点数量不受限制。
* 最小不纯度衰减阈值:如果分裂导致杂质减少大于或等于该值,则节点将被分裂。
* 最小不纯度衰减阈值:如果分裂导致杂质减少大于或等于该值,则节点将被分裂。
===注意事项===
* 不支持带空值运算,用[[多重插补]]或[[插补空值]]进行插补,
* 节点不出图,
* 导入该节点的数据端口为训练数据集,导入前注意转换。


== 参考文献 ==
== 参考文献 ==
{{reflist}}
{{reflist}}


{{Navplate AlgorithmNodeList}}
{{Navplate AlgorithmNodeList}}


[[Category:分类训练器]]
[[Category:分类训练器]]

2024年1月19日 (五) 19:28的最新版本

Decision Tree.png
节点状态
Windows / Windows 10 Win10及以上可用
V1.0部署
决策树Decision Tree.svg
节点开发者决策链算法研发部 (Dev.Team-DPS)
节点英文名Decision Tree
功能主类别机器学习
英文缩写DT
功能亚类别分类训练器
节点类型数据挖掘
开发语言Python
节点简介

决策树算法是一种基于树结构的有监督机器学习算法,用于解决分类和回归问题。它基于一系列的决策规则来学习和预测数据的目标变量。

决策树通过对特征进行逐步分割来构建树结构,每个内部节点表示一个特征,每个叶节点表示一个预测类别或数值。

端口数量与逻辑控制(PC)
Input-入口2个
Output-出口3个
Loop-支持循环
If/Switch-支持逻辑判断
输入输出
可生成图片类型(推荐)
可生成数据表类型(推荐)
相关节点
上一节点采样方法
下一节点支持向量机



算法概述

决策树通常用于运筹学,特别是决策分析,以帮助确定最有可能达到目标的策略,但也是机器学习中的一种流行工具[1]。机器学习中的决策树是一种用于分类和回归的非参数监督学习方法。目标是创建一个模型,通过学习从数据特征推断出的简单决策规则来预测目标变量的值。树可以看作是分段常数近似。

优缺点

决策树的一些优点是:

  1. 易于理解和解释。树木可以被形象化。
  2. 需要很少的数据准备。其他技术通常需要数据标准化、创建虚拟变量并删除空白值。一些树和算法组合支持 缺失值。
  3. 使用树(即预测数据)的成本是用于训练树的数据点数量的对数。
  4. 使用白盒模型。如果给定的情况在模型中是可观察到的,则该条件的解释很容易通过布尔逻辑来解释。相比之下,在黑盒模型中(如神经网络),结果可能更难以解释。
  5. 可以使用统计测试来验证模型。这使得可以解释模型的可靠性。
  6. 即使生成数据的真实模型在某种程度上违反了其假设,也表现良好。

决策树的缺点包括:

  1. 决策树学习者可以创建过于复杂的树,而这些树不能很好地概括数据。这称为过度拟合。为了避免这个问题,需要采用剪枝、设置叶节点所需的最小样本数或设置树的最大深度等机制。
  2. 决策树可能不稳定,因为数据的微小变化可能会导致生成完全不同的树。通过在集成中使用决策树可以缓解这个问题。
  3. 决策树的预测既不是平滑的也不是连续的,而是分段常数近似,如上图所示。因此,他们不擅长推断。
  4. 已知学习最优决策树的问题在最优性的几个方面甚至对于简单的概念来说都是 NP 完全的。因此,实用的决策树学习算法基于启发式算法,例如贪婪算法,其中在每个节点做出局部最优决策。此类算法不能保证返回全局最优决策树。这可以通过在集成学习器中训练多个树来缓解,其中特征和样本是通过替换随机采样的。
  5. 有些概念很难学习,因为决策树不容易表达它们,例如异或、奇偶校验或多路复用器问题。
  6. 如果某些类占主导地位,决策树学习器会创建有偏差的树。因此,建议在拟合决策树之前平衡数据集。

示例代码-决策树分类节点

该节点使用Python编写,调用scikit-learn包[2]。以下为示例代码:

from sklearn import tree
X = [[0, 0], [1, 1]]
Y = [0, 1]
clf = tree.DecisionTreeClassifier()
clf = clf.fit(X, Y)

拟合后,模型可以用于预测样本的类别,可以在通用预测模块实现内外部测试集的预测。

节点使用指南

  • 最适用的场景:决策树可用于解决分类问题,其中目标是将数据分为不同的类别或预测数据的类别。
  • 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。

变量配置

  • 选择特征变量:作为特征进行学习的变量(X),多选。
  • 选择目标变量:作为结局的二分类变量(y),单选。

参数配置

  • 设置随机数:控制模型的随机性。
  • 拆分策略:用于在每个节点选择分裂的策略,包含最佳分割和随机分割。
  • 损失函数算法选择:衡量分割质量的函数。支持的标准为
    • 'gini':基尼纯度(Gini impurity),
    • 'log_loss',
    • 'entropy':信息熵。
  • 最大深度:树的最大深度。如果没有,则扩展节点,直到所有叶子都是纯的或直到所有叶子包含少于"最小拆分样本数"的样本。
  • 最小拆分样本数:分裂内部节点所需的最小样本数。
  • 叶节点最小样本数:叶节点所需的最小样本数。该参数仅当任何深度的分割点在左右分支中至少留下训练样本时,才会被考虑。这可能具有使模型平滑的效果,尤其是在回归中。
  • 最大特征数:寻找最佳分割时要考虑的特征数量。
  • 最大叶节点数:以最佳优先的方式种植一棵树。最佳节点定义为杂质的相对减少。如果没有,则叶节点数量不受限制。
  • 最小不纯度衰减阈值:如果分裂导致杂质减少大于或等于该值,则节点将被分裂。

注意事项

  • 不支持带空值运算,用多重插补插补空值进行插补,
  • 节点不出图,
  • 导入该节点的数据端口为训练数据集,导入前注意转换。

参考文献

  1. De Ville, Barry (2013). "Decision trees". Wiley Interdisciplinary Reviews: Computational Statistics. Wiley Online Library. 5 (6): 448--455.
  2. Kramer, Oliver (2016). "Scikit-learn". Machine learning for evolution strategies. Springer: 45--53.


查找其他类别的节点,请参考以下列表