采样方法:修订间差异

来自决策链云智库
无编辑摘要
 
(未显示同一用户的6个中间版本)
第29行: 第29行:


==算法概述==
==算法概述==
在信号处理中,采样是将连续时间信号转换为离散时间信号的过程。一个常见的例子是将声波转换为一系列“样本”。样本是在时间和/或空间中的某一点上信号的值;这个定义与统计学中用法不同,后者指的是这样的一组值<ref>{{cite web
| title = Sampling
| url = https://en.wikipedia.org/wiki/Sampling_(signal_processing)
| access-date = 2024-01-23
}}</ref>。采样器是从连续信号中提取样本的子系统或操作。理论上的理想采样器在所需的点上产生等于连续信号瞬时值的样本。可以通过将样本序列通过重建滤波器进行处理,重建原始信号,直到奈奎斯特极限(Nyquist limit)。


 
==示例代码-采样方法节点==
==示例代码-梯度提升树分类节点==
该节点使用Python编写,调用imblearn包<ref>{{cite journal |author=Kramer, Oliver |title=Scikit-learn |journal=Machine learning for evolution strategies |pages=45--53 |year=2016 |publisher=Springer }}</ref>。以下为示例代码:
该节点使用Python编写,调用scikit-learn包<ref>{{cite journal |author=Kramer, Oliver |title=Scikit-learn |journal=Machine learning for evolution strategies |pages=45--53 |year=2016 |publisher=Springer }}</ref>。以下为示例代码:
<syntaxhighlight lang="Python">
<syntaxhighlight lang="Python">
from sklearn.datasets import make_hastie_10_2
from imblearn.over_sampling import RandomOverSampler
from sklearn.ensemble import GradientBoostingClassifier
from imblearn.under_sampling import RandomUnderSampler


X, y = make_hastie_10_2(random_state=0)
sampler = RandomOverSampler()
X_train, X_test = X[:2000], X[2000:]
sampler = RandomUnderSampler()
y_train, y_test = y[:2000], y[2000:]
clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0,
      max_depth=1, random_state=0).fit(X_train, y_train)
clf.score(X_test, y_test)
</syntaxhighlight>
</syntaxhighlight>
拟合后,模型可以用于预测样本的类别,可以在[[通用预测模块]]实现内外部测试集的预测。


=='''节点使用指南'''==
=='''节点使用指南'''==
第51行: 第49行:
* 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。
* 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。
===变量配置===
===变量配置===
* 选择特征变量:作为特征进行学习的变量(X),多选。
* 选择目标变量:作为需要采样的分类变量作为目标,单选。
* 选择目标变量:作为结局的二分类变量(y),单选。


===参数配置===
===参数配置===
* 设置随机数:控制模型的随机性。
* 设置随机数:控制模型的随机性。
* 拆分质量评估方法选择:
* 采样方法:
** 'friedman mse',
** 欠采样:抛弃大部分反例数据,可能会造成较大偏差,
** 'squared error'。
** 过采样:单纯重复正例数据,可能造成对正例的过拟合,
* 学习率:算法通过学习率缩小每棵树的贡献差距。默认值为0.1。
** Bootstrap:有放回的多次重抽样,能保证整体估计量稳定,但也可能造成偏差。
* Boosting次数:执行boosting算法的次数。梯度增强对于过度拟合是相当稳健的,因此大量通常会带来更好的性能。
* 子样本分数:用于拟合各个基础学习器的样本比例。如果小于 1.0,则会导致随机梯度提升。选择会导致方差减少和偏差增加。值必须在范围内。子样本分数取值范围(0.0, 1.0]。
* 损失函数算法选择:衡量分割质量的函数。支持的算法为
** 'exponential',
** 'log_loss'。
* 最大深度:树的最大深度。如果没有,则扩展节点,直到所有叶子都是纯的或直到所有叶子包含少于"最小拆分样本数"的样本。
* 最小拆分样本数:分裂内部节点所需的最小样本数。
* 叶节点最小样本数:叶节点所需的最小样本数。该参数仅当任何深度的分割点在左右分支中至少留下训练样本时,才会被考虑。这可能具有使模型平滑的效果,尤其是在回归中。
* 最大特征数:寻找最佳分割时要考虑的特征数量。
* 最大叶节点数:以最佳优先的方式种植一棵树。最佳节点定义为杂质的相对减少。如果没有,则叶节点数量不受限制。
* 最小不纯度衰减阈值:如果分裂导致杂质减少大于或等于该值,则节点将被分裂。


===注意事项===
===注意事项===

2024年1月23日 (二) 11:36的最新版本

Sampler.png
节点状态
Windows / Windows 10 Win10及以上可用
V1.0部署
采样方法Sampler.svg
节点开发者决策链算法研发部 (Dev.Team-DPS)
节点英文名Sampler
功能主类别机器学习
英文缩写Sampler
功能亚类别分类训练器
节点类型数据挖掘
开发语言Python
节点简介

用于多数据集的机器学习基础评估。包含混淆矩阵,准确度(Accuracy),F1-Score,Matthews Correlation Coefficient(MCC)等基础评估算法。

端口数量与逻辑控制(PC)
Input-入口3个
Output-出口2个
Loop-支持循环
If/Switch-支持逻辑判断
输入输出
可生成图片类型(推荐)
可生成数据表类型(推荐)
相关节点
上一节点交叉验证结果整合
下一节点决策树



算法概述

在信号处理中,采样是将连续时间信号转换为离散时间信号的过程。一个常见的例子是将声波转换为一系列“样本”。样本是在时间和/或空间中的某一点上信号的值;这个定义与统计学中用法不同,后者指的是这样的一组值[1]。采样器是从连续信号中提取样本的子系统或操作。理论上的理想采样器在所需的点上产生等于连续信号瞬时值的样本。可以通过将样本序列通过重建滤波器进行处理,重建原始信号,直到奈奎斯特极限(Nyquist limit)。

示例代码-采样方法节点

该节点使用Python编写,调用imblearn包[2]。以下为示例代码:

from imblearn.over_sampling import RandomOverSampler
from imblearn.under_sampling import RandomUnderSampler

sampler = RandomOverSampler()
sampler = RandomUnderSampler()

节点使用指南

  • 最适用的场景:决策树可用于解决分类问题,其中目标是将数据分为不同的类别或预测数据的类别。
  • 处理的数据类型:结局变量为二分类,特征变量大多数为连续型的变量。

变量配置

  • 选择目标变量:作为需要采样的分类变量作为目标,单选。

参数配置

  • 设置随机数:控制模型的随机性。
  • 采样方法:
    • 欠采样:抛弃大部分反例数据,可能会造成较大偏差,
    • 过采样:单纯重复正例数据,可能造成对正例的过拟合,
    • Bootstrap:有放回的多次重抽样,能保证整体估计量稳定,但也可能造成偏差。

注意事项

  • 不支持带空值运算,用多重插补插补空值进行插补,
  • 节点不出图,
  • 导入该节点的数据端口为训练数据集,导入前注意转换。

参考文献

  1. "Sampling". Retrieved 2024-01-23.
  2. Kramer, Oliver (2016). "Scikit-learn". Machine learning for evolution strategies. Springer: 45--53.

查找其他类别的节点,请参考以下列表