文章目录

  • 树模型系列(ID3、C4.5、CART)
    • ID3
      • 基本思想
      • 划分标准
      • 缺点
    • C4.5
      • 基本思想
      • 划分标准
      • 剪枝策略
        • 预剪枝
        • 后剪枝
      • 缺点
        • C4.5剪枝算法
    • CART
      • 基本思想
      • 划分标准
      • 缺失值处理
      • 剪枝策略
      • 类别不平衡
      • 回归树
        • 连续值处理
      • 回归树生成
      • 预测方式
    • 总结
    • 参考文献

树模型系列(ID3、C4.5、CART)

本文主要总结三种决策树 ID3、C4.5、CART的基本思想及区别。决策树模型学习通常是3个步骤:特征选择、决策树的生成、决策树的修剪

ID3

ID3 算法是建立在奥卡姆剃刀(用较少的东西,同样可以做好事情)的基础上:越是小型的决策树越优于大的决策树

基本思想

信息熵越大,样本纯度越低。ID3 算法的核心思想就是以信息增益来度量特征选择,选择信息增益最大的特征进行分裂。算法采用自顶向下的贪婪搜索遍历可能的决策树空间(C4.5 也是贪婪搜索)。 其大致步骤为:

  • 初始化特征集合和数据集合;
  • 计算数据集合信息熵和所有特征的条件熵,选择信息增益最大的特征作为当前决策节点;
  • 更新数据集合和特征集合(删除上一步使用的特征,并按照特征值来划分不同分支的数据集合);
  • 重复 2,3两步,若子集值包含单一特征,则为分支叶子节点。

划分标准

ID3 使用的分类标准是信息增益,它表示得知特征 A 的信息而使得样本集合不确定性减少的程度。



信息增益 = 信息熵 - 条件熵:

信息增益越大表示使用特征 A 来划分所获得的“纯度提升越大”。

缺点

  • ID3 没有剪枝策略,容易过拟合;
  • 信息增益准则对可取值数目较多的特征有所偏好,类似“编号”的特征其信息增益接近于 1;
  • 只能用于处理离散分布的特征;
  • 没有考虑缺失值

C4.5

C4.5 算法最大的特点是克服了 ID3 对特征数目的偏重这一缺点,引入信息增益率来作为分类标准

基本思想

C4.5 相对于 ID3 的缺点对应有以下改进方式:

  • 引入悲观剪枝策略进行后剪枝;
  • 引入信息增益率作为划分标准;
  • 将连续特征离散化,假设 n 个样本的连续特征 A 有 m 个取值,C4.5将其排序并取相邻两样本值的平均数共 m-1个划分点,分别计算以该划分点作为二元分类点时的信息增益,并选择信息增益最大的点作为该连续特征的二元离散分类点;
  • 对于缺失值的处理可以分为两个子问题(周志华机器学习P87):
  • 问题一:在特征值缺失的情况下进行划分特征的选择?(即如何计算特征的信息增益率)
    对于具有缺失值特征,用没有缺失的样本子集所占比重来折算;举例:计算所有特征的信息增益或者信息增益率的时候,假设数据集一共10000个样本,特征A中缺失了5000个,则无视缺失值,在剩下的5000个特征中计算信息增益(或者信息增益率),最后乘以0.5,思想就是缺失值多的特征通过这种降低权重的方式来体现信息的缺失
  • 问题二:选定该划分特征,对于缺失该特征值的样本如何处理?(即到底把这个样本划分到哪个结点里)
    将样本同时划分到所有子节点,不过要调整样本的权重值,其实也就是以不同概率划分到不同节点中 => 左右都分,只不过乘上该取值的个数占样本的比例

划分标准

利用信息增益率可以克服信息增益的缺点,其公式为

注意:信息增益率对可取值较少的特征有所偏好(分母越小,整体越大),因此 C4.5 并不是直接用增益率最大的特征进行划分,而是使用一个启发式方法先从候选划分特征中找到信息增益高于平均值的特征,再从中选择增益率最高的。

剪枝策略

树模型逐渐分裂,极容易过拟合,过拟合的树在泛化能力的表现非常差

预剪枝

在节点划分前来确定是否继续增长,及早停止增长的主要方法有:

  • 节点内数据样本低于某一阈值
  • 所有节点特征都已分裂(单节点特征);
  • 节点划分前准确率比划分后准确率高(准确率最高)。

预剪枝不仅可以降低过拟合的风险而且还可以减少训练时间,但另一方面它是基于“贪心”策略,会带来欠拟合风险

后剪枝

在已经生成的决策树上进行剪枝,从而得到简化版的剪枝决策树。

C4.5 采用的悲观剪枝方法(后剪枝),用递归的方式从低往上针对每一个非叶子节点,评估用一个最佳叶子节点去代替这课子树是否有益。如果剪枝后与剪枝前相比其错误率是保持或者下降,则这棵子树就可以被替换掉。C4.5 通过训练数据集上的错误分类数量来估算未知样本上的错误率。

后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树。但同时其训练时间会大的多。

缺点

  • 剪枝策略可以再优化;
  • C4.5 用的是多叉树,用二叉树效率更高;
  • C4.5 只能用于分类;
  • C4.5 使用的熵模型拥有大量耗时的对数运算,连续值还有排序运算;
  • C4.5在构造树的过程中,对数值属性值需要按照其大小进行排序,从中选择一个分割点,所以只适合于能够驻留于内存的数据集,当训练集大得无法在内存容纳时,程序无法运行
C4.5剪枝算法


CART

ID3 和 C4.5 虽然在对训练样本集的学习中可以尽可能多地挖掘信息,但是其生成的决策树分支、规模都比较大,CART 算法的二分法可以简化决策树的规模,提高生成决策树的效率

基本思想

CART 包含的基本过程有分裂,剪枝和树选择。

  • 分裂:分裂过程是一个二叉递归划分过程,其输入和预测特征既可以是连续型的也可以是离散型的,CART 没有停止准则,会一直生长下去;
  • 剪枝:采用代价复杂度剪枝,从最大树开始,每次选择训练数据熵对整体性能贡献最小的那个分裂节点作为下一个剪枝对象,直到只剩下根节点。CART会产生一系列嵌套的剪枝树,需要从中选出一颗最优的决策树;
  • 树选择:用单独的测试集评估每棵剪枝树的预测性能(也可以用交叉验证)。

CART 在 C4.5 的基础上进行了很多提升。

  • C4.5 为多叉树,运算速度慢,CART 为二叉树,运算速度快;
  • C4.5 只能分类,CART 既可以分类也可以回归;
  • CART 使用Gini 系数作为变量的不纯度量,减少了大量的对数运算;
  • CART 采用代理测试来估计缺失值,而 C4.5 以不同概率划分到不同节点中;
  • CART 采用“基于代价复杂度剪枝”方法进行剪枝,而 C4.5 采用悲观剪枝方法。

划分标准

熵模型拥有大量耗时的对数运算,基尼指数在简化模型的同时还保留了熵模型的优点。基尼指数代表了模型的不纯度,基尼系数越小,不纯度越低,特征越好。这和信息增益(率)正好相反。

其中 k 代表类别
基尼指数反映了从数据集中随机抽取两个样本,其类别标记不一致的概率 因此基尼指数越小,则数据集纯度越高。基尼指数偏向于特征值较多的特征,类似信息增益。基尼指数可以用来度量任何不均匀分布,是介于 0~1 之间的数,0 是完全相等,1 是完全不相等

此外,当 CART 为二分类,其表达式为:

可以看到在平方运算和二分类的情况下,其运算更加简单。当然其性能也与熵模型非常接近

基尼指数与熵模型
结论:信息增益的表达式用泰勒一节展开后和Gini指数的表达式相等

基尼指数可以理解为熵模型的一阶泰勒展开,经典的解释基尼系数和熵之间的关系图:

从上图可以看出,基尼系数和熵之间的曲线非常接近,仅仅在45度角附近误差稍大。因此,基尼系数可以做为熵模型的一个近似替代。而CART分类树算法就是使用的基尼系数来选择决策树的特征。同时,为了进一步简化,CART分类树算法每次仅仅对某个特征的值进行二分,而不是多分,这样CART分类树算法建立起来的是二叉树,而不是多叉树。这样一可以进一步简化基尼系数的计算,二可以建立一个更加优雅的二叉树模型。

CART生成算法

缺失值处理

  • 如何在特征值缺失的情况下进行划分特征的选择?
    CART 一开始严格要求分裂特征评估时只能使用在该特征上没有缺失值的那部分数据,在后续版本中,CART 算法使用了一种惩罚机制来抑制提升值,从而反映出缺失值的影响(例如,如果一个特征在节点的 20% 的记录是缺失的,那么这个特征就会减少 20% 或者其他数值)
  • 选定该划分特征,模型对于缺失该特征值的样本该进行怎样处理?
    CART 算法的机制是为树的每个节点都找到代理分裂器,无论在训练数据上得到的树是否有缺失值都会这样做。在代理分裂器中,特征的分值必须超过默认规则的性能才有资格作为代理(即代理就是代替缺失值特征作为划分特征的特征),当 CART 树中遇到缺失值时,这个实例划分到左边还是右边是决定于其排名最高的代理,如果这个代理的值也缺失了,那么就使用排名第二的代理,以此类推,如果所有代理值都缺失,那么默认规则就是把样本划分到较大的那个子节点。代理分裂器可以确保无缺失训练数据上得到的树可以用来处理包含确实值的新数据。

剪枝策略

采用一种“基于代价复杂度的剪枝”方法进行后剪枝,这种方法会生成一系列树,每个树都是通过将前面的树的某个或某些子树替换成一个叶节点而得到的,这一系列树中的最后一棵树仅含一个用来预测类别的叶节点。然后用一种成本复杂度的度量准则来判断哪棵子树应该被一个预测类别值的叶节点所代替。这种方法需要使用一个单独的测试数据集来评估所有的树,根据它们在测试数据集熵的分类性能选出最佳的树。

将最大树称为 To ,我们希望减少树的大小来防止过拟合,但又担心去掉节点后预测误差会增大,所以我们定义了一个损失函数来达到这两个变量之间的平衡。损失函数定义如下:

T为任意子树,C(T)为预测误差,|T| 为子树T的叶子节点个数,α 是参数, C(T) 衡量训练数据的拟合程度, |T|衡量树的复杂度,α 权衡拟合程度与树的复杂度

那么如何找到合适的 α 来使得复杂度和拟合度达到最好的平衡点呢,最好的办法就是令 α 从 0 取到正无穷,对于每一个固定的 α ,我们都可以找到使得Cα(T)最小的最优子树T(α)。当 α 很小的时候, To 是最优子树;当 α 最大时,单独的根节点是这样的最优子树。随着 α 增大,我们可以得到一个这样的子树序列:To,T1,T2…Tn,这里的子树Ti+1生成是根据前一个子树 Ti 剪掉某一个内部节点生成的

Breiman 证明:将 α 从小增大,0 = α0 < α1 < α2 … < αn < ∞,在每个区间 [αi, αi+1] 中,子树 Ti 是这个区间里最优的。这是代价复杂度剪枝的核心思想。

我们每次剪枝都是针对某个非叶节点,其他节点不变,所以我们只需要计算该节点剪枝前和剪枝后的损失函数即可

对于任意内部节点 t,剪枝前的状态,有 |Tt| 个叶子节点,预测误差是C(Tt) ;剪枝后的状态:只有本身一个叶子节点,预测误差是C(t)

因此剪枝前以 t 节点为根节点的子树的损失函数是:

剪枝后的损失函数是

通过 Breiman 证明我们知道一定存在一个 α 使得 Cα(T) = Cα(t) ,使得这个值为:

α 的意义在于,在 [αi, αi+1] 中,子树 Ti 是这个区间里最优的。当 α 大于这个值是,一定有 Cα(T) > Cα(t) ,也就是剪掉这个节点后都比不剪掉要更优。所以每个最优子树对应的是一个区间,在这个区间内都是最优的。

然后我们对 Ti 中的每个内部节点 t 都计算:

g(t)表示剪枝的阈值,即对于某一结点 n,当总体损失函数中的参数 α = g(t)时,剪和不剪总体损失函数是一样的。这时如果α 稍稍增大,那么不剪的整体损失函数就大于剪去的。即 α 大于g(t)该剪,剪了会使整体损失函数减小;α 小于g(t)不该剪,剪了会使整体损失函数增大。(请注意上文中的总体损失函数,对象可以是以a为根的子树,也可以是整个CART树,对a剪枝前后二者的总体损失函数增减是相同的。)

对于同一棵树的结点,α 都是一样的,当 α 从0开始缓慢增大,总会有某棵子树该剪,其他子树不该剪的情况,即 α 超过了某个结点的g(t),但还没有超过其他结点的g(t)。这样随着α不断增大,不断地剪枝,就得到了n+1棵子树,接下来只要用独立数据集测试这n+1棵子树,试试哪棵子树的误差最小就知道那棵是最好的方案了

故我们每次都会减去最小的 Tt。g(t)表示剪枝后整体损失函数减少的程度。在To中剪去 g(t)最小的Tt,将得到的树 作为 T1,同时将 最小的 g(t) 设为 α1, T1 为 区间 [α1, α2]的最优子树
然后一直这样剪枝下去,直至根结点,在这过程中不断增加α的值,产生新的区间。

在剪枝得到的子树序列 To T1 T2 … Tn 中通过交叉验证选取最优子树 Tα
利用独立的验证数据集,测试子树序列 To T1 T2 … Tn 中各棵个树的平方误差或者基尼指数,平方误差或者基尼指数最小的决策树被认为是 最优的决策树。在 子树序列中,每棵子树 T1, T2 …Tn 都对应一个参数 α1, α2…αn ,所以当 子树Tk确定了,对应的 αk也就确定了,即得到最优子树 Tα

剪枝算法流程

CART的剪枝和ID3/C4.5的剪枝对比进行理解:二者关键的区别就在于α上面 => ID3/C4.5的剪枝α是作为参数输入的,也就是说这里的 α是由人来确定的;CART则不是

类别不平衡

CART 的一大优势在于:无论训练数据集有多失衡,它都可以将其自动消除不需要建模人员采取其他操作。

CART 使用了一种先验机制,其作用相当于对类别进行加权。这种先验机制嵌入于 CART 算法判断分裂优劣的运算里,在 CART 默认的分类模式中,总是要计算每个节点关于根节点的类别频率的比值,这就相当于对数据自动重加权,对类别进行均衡。

对于一个二分类问题,节点 node 被分成类别 1 当且仅当:

比如二分类,根节点属于 1 类和 0 类的分别有 20 和 80 个。在子节点上有 30 个样本,其中属于 1 类和 0 类的分别是 10 和 20 个。如果 10/20>20/80,该节点就属于 1 类。

通过这种计算方式就无需管理数据真实的类别分布。假设有 K 个目标类别,就可以确保根节点中每个类别的概率都是 1/K。这种默认的模式被称为“先验相等”。

先验设置和加权不同之处在于先验不影响每个节点中的各类别样本的数量或者份额。先验影响的是每个节点的类别赋值和树生长过程中分裂的选择。

回归树

CART(Classification and Regression Tree,分类回归树),从名字就可以看出其不仅可以用于分类,也可以应用于回归。其回归树的建立算法上与分类树部分相似,这里简单介绍下不同之处

连续值处理

对于连续值的处理,CART 分类树采用基尼系数的大小来度量特征的各个划分点。在回归模型中,我们使用常见的和方差度量方式,对于任意划分特征 A,对应的任意划分点 s 两边划分成的数据集 D1和 D2,求出使D1和D2各自集合的均方差最小,同时 D1式] 和 D2 的均方差之和最小所对应的特征和特征值划分点。表达式为:

其中, c1 为 D1 数据集的样本输出均值, c2 为 D2 数据集的样本输出均值

回归树生成

预测方式

对于决策树建立后做预测的方式,上面讲到了 CART 分类树采用叶子节点里概率最大的类别作为当前节点的预测类别。而回归树输出不是类别,它采用的是用最终叶子的均值或者中位数来预测输出结果。

总结

对比下 ID3、C4.5 和 CART 三者之间的差异

  • 划分标准的差异:ID3 使用信息增益偏向特征值多的特征,C4.5 使用信息增益率克服信息增益的缺点,偏向于特征值小的特征,CART 使用基尼指数克服 C4.5 需要求 log 的巨大计算量,偏向于特征值较多的特征。
  • 使用场景的差异:ID3 和 C4.5 都只能用于分类问题,CART 可以用于分类和回归问题;ID3 和 C4.5 是多叉树,速度较慢,CART 是二叉树,计算速度很快;
  • 样本数据的差异:ID3 只能处理离散数据且缺失值敏感,C4.5 和 CART 可以处理连续性数据且有多种方式处理缺失值;从样本量考虑的话,小样本建议 C4.5、大样本建议 CART。C4.5处理过程中需对数据集进行多次扫描排序,处理成本耗时较高,而 CART 本身是一种大样本的统计方法,小样本处理下泛化误差较大 ;
  • 样本特征的差异:ID3 和 C4.5 层级之间只使用一次特征,CART 可多次重复使用特征;
  • 剪枝策略的差异:ID3 没有剪枝策略,C4.5 是通过悲观剪枝策略来修正树的准确性,而 CART 是通过代价复杂度剪枝。

问题
代理分裂器 => 参考 《数据挖掘十大算法》吴信东

参考文献

【机器学习】决策树(上)——ID3、C4.5、CART(非常详细)
cart算法为什么选用gini指数?
cart树怎么进行剪枝?
机器学习之分类与回归树(CART)

树模型系列(ID3、C4.5、CART)相关推荐

  1. 决策树数学原理(ID3,c4.5,cart算法)

    上面这个图就是一棵典型的决策树.我们在做决策树的时候,会经历两个阶段:构造和剪枝. 构造 简单来说,构造的过程就是选择什么属性作为节点的过程,那么在构造过程中,会存在三种节点: 根节点:就是树的最顶端 ...

  2. 树模型系列之XGBoost算法

    文章目录 树模型系列之XGBoost算法 概要 原理 损失函数 子树 xgboost算法流程总结 关键问题 缺失值处理(稀疏问题的分裂点查找 Sparsity-aware Split Finding) ...

  3. 树模型系列之集成树(Random Forest、Adaboost、GBDT)

    文章目录 树模型系列之集成树(Random Forest.Adaboost.GBDT) Random Forest 基本思想 优缺点 Adaboost 基本思想 细节 损失函数 正则化 优缺点 GBD ...

  4. 树模型系列之集成学习(Bagging、Boosting、Stacking)

    文章目录 树模型系列之集成学习(Bagging.Boosting.Stacking) bagging Boosting Stacking 偏差与方差 集成学习的偏差与方差 Bagging 的偏差与方差 ...

  5. cart算法_【统计学】决策树模型大比拼!ID3/C4.5/CART算法哪个更好用?

    - 点击上方"中国统计网"订阅我吧!- 决策树模型在监督学习中非常常见,可用于分类(二分类.多分类)和回归.虽然将多棵弱决策树的Bagging.Random Forest.Boos ...

  6. 决策树模型(ID3/C4.5/CART)原理和底层代码解读 学习笔记

    本文作者:合肥工业大学 管理学院 钱洋 email:1563178220@qq.com 内容可能有不到之处,欢迎交流. 未经本人允许禁止转载 如下为个人的学习笔记,使用latex编写,再写成文本太麻烦 ...

  7. 【机器学习】 ID3,C4.5,CART决策树

    决策树模型在监督学习中非常常见,可用于分类(二分类.多分类)和回归.虽然将多棵弱决策树的Bagging.Random Forest.Boosting等tree ensembel 模型更为常见,但是&q ...

  8. 决策树 基于python实现ID3,C4.5,CART算法

    实验目录 实验环境 简介 决策树(decision tree) 信息熵 信息增益(应用于ID3算法) 信息增益率(在C4.5算法中使用) 基尼指数(被用于CART算法) 实验准备 数据集 算法大体流程 ...

  9. 【机器学习】通过ID3,C4.5,CART算法构建决策树

    决策树 (一).决策树的简介 (二).构造决策树的三种构造方法 1.基于信息增益生成决策树(ID3算法) 2.基于信息增益率生成决策树(C4.5算法) 3.基于基尼指数生成决策树(CART算法) 总结 ...

  10. 通过实例理解决策树算法(ID3,C4.5,Cart算法)

    (一)实例:使用ID3算法给出"好苹果"的决策树 (二)决策树的工作原理 我们在做决策树的时候,会经历两个阶段:构造和剪枝. 构造原理--构造的过程就是选择什么属性作为节点的过程, ...

最新文章

  1. Oracle 12c RAC 日志体系结构的变化
  2. 9个offer,12家公司,35场面试,从微软到谷歌,应届计算机毕业生的2012求职之路...
  3. 用JSP实现学生查询
  4. mac cad石材填充图案_CAD怎么填充颜色?
  5. django language_「基于Python技术的智慧中医商业项目」Django问诊系统篇-1.系统配置...
  6. BZOJ2424 [HAOI2010]订货
  7. python的命名空间_python命名空间(namespace)
  8. c++指针各种用法小结
  9. python:求100以内素数的和
  10. 数据库系统设计大作业:图书馆管理系统
  11. 施乐服务器装系统闪EE,施乐7535755633755575驱动安装教程
  12. 基于微信小程序的投票系统——计算机毕业设计
  13. ffmpeg 用于转换视频格式的各种命令行
  14. 大学计算机课考试难吗,大学阶段容易“挂科”的4门学科,考试难度较大,补考通过率还低...
  15. 收到垃圾广告短信,回复“T”退订,完全没用怎么办?
  16. Windows 7 Boot Updater 如何使用
  17. c语言画猪程序,C语言画小猪佩奇(转载)
  18. Linux | Ubuntu | 查看路由 | 修改路由
  19. linux统计排序命令,Linux命令去重统计排序
  20. [BZOJ4668]冷战

热门文章

  1. 站在数字化风口,工装企业如何“飞起来”
  2. 音量标准化(Audio Normalization)、等响度曲线
  3. python爬虫自动翻页_python+scrapy爬虫时如何自动翻页获取内容
  4. 古月居 ROS入门21讲 第十三讲 客户端Client的编程实现
  5. C++出黑科技了!程序员大牛开发基于OpenGL的模拟3维空间模型
  6. ad域下发策略,在 Azure AD 域服务中创建和管理组策略 | Microsoft Docs
  7. Element的MessageBox 弹框如何自定义图标
  8. go语言调用ipfs进行文件的上传下载
  9. 【转】我从11楼跳下去……才知道....
  10. 吐血整理各大高校保研官网