StudyAI
新闻中心
课程中心
博客专栏
开发社区
招聘专区
阅读 197次
评论 0条
指尖的hacker
机器学习实战之决策树下
机器学习
5个月前
5384字
197阅读
# 概述 [原文博客](https://hackerxiaobai.github.io/ "原文博客") [Github地址](https://github.com/hackerxiaobai "Github地址") > 在上篇里,我们讲到了决策树里ID3算法,和ID3算法的改进版C4.5算法。对于C4.5算法,我们也提到了它的不足,比如模型是用较为复杂的熵来度量,使用了相对较为复杂的多叉树,只能处理分类不能处理回归等。对于这些问题, CART算法大部分做了改进。CART算法也就是我们下面的重点了。由于CART算法可以做回归,也可以做分类,我们分别加以介绍,先从CART分类树算法开始,重点比较和C4.5算法的不同点。接着介绍CART回归树算法,重点介绍和CART分类树的不同点。然后我们讨论CART树的建树算法和剪枝算法,最后总结决策树算法的优缺点。 # CART分类树算法的最优特征选择方法 > 我们知道,在ID3算法中我们使用了信息增益来选择特征,信息增益大的优先选择。在C4.5算法中,采用了信息增益比来选择特征,以减少信息增益容易选择特征值多的特征的问题。但是无论是ID3还是C4.5,都是基于信息论的熵模型的,这里面会涉及大量的对数运算。能不能简化模型同时也不至于完全丢失熵模型的优点呢?有!CART分类树算法使用基尼系数来代替信息增益比,基尼系数代表了模型的不纯度,基尼系数越小,则不纯度越低,特征越好。这和信息增益(比)是相反的。 > > 具体的,在分类问题中,假设有K个类别,第k个类别的概率为$p_{k}$, 则基尼系数的表达式为: $$Gini(p)=\sum_{k=1}^{K}p_{k}(1-p_{k})=1-\sum_{k=1}^{K}p_{k}^{2}$$ > 如果是二类分类问题,计算就更加简单了,如果属于第一个样本输出的概率是p,则基尼系数的表达式为: $$Gini(p)=2p(1-p)$$ > 对于给定的样本D,假设有K个类别, 第k个类别的数量为$C_{k}$,则样本D的基尼系数表达式为: $$Gini(D)=1-\sum_{k=1}^{K}(\frac{|C_{k}|}{|D|})^2$$ > 特别的,对于样本D,如果根据特征A的某个值a,把D分成D1和D2两部分,则在特征A的条件下,D的基尼系数表达式为: $$Gini(D,A)=\frac{|D_{1}|}{D}Gini(D_{1})+\frac{|D_{2}|}{D}Gini(D_{2})$$ > 大家可以比较下基尼系数表达式和熵模型的表达式,二次运算是不是比对数简单很多?尤其是二类分类的计算,更加简单。但是简单归简单,和熵模型的度量方式比,基尼系数对应的误差有多大呢?对于二类分类,基尼系数和熵之半的曲线如下:  > 从上图可以看出,基尼系数和熵之半的曲线非常接近,仅仅在45度角附近误差稍大。因此,基尼系数可以做为熵模型的一个近似替代。而CART分类树算法就是使用的基尼系数来选择决策树的特征。同时,为了进一步简化,CART分类树算法每次仅仅对某个特征的值进行二分,而不是多分,这样CART分类树算法建立起来的是二叉树,而不是多叉树。这样一可以进一步简化基尼系数的计算,二可以建立一个更加优雅的二叉树模型。 # CART分类树算法对于连续特征和离散特征处理的改进 > 对于CART分类树连续值的处理问题,其思想和C4.5是相同的,都是将连续的特征离散化。唯一的区别在于在选择划分点时的度量方式不同,C4.5使用的是信息增益,则CART分类树使用的是基尼系数。 > > 具体的思路如下,比如m个样本的连续特征A有m个,从小到大排列为$a_{1},a_{2},...,a_{m}$,则CART算法取相邻两样本值的中位数,一共取得m-1个划分点,其中第i个划分点$T_{i}$表示为:$T_{i}=\frac{a_{i}+a_{i+1}}{2}$。对于这m-1个点,分别计算以该点作为二元分类点时的基尼系数。选择基尼系数最小的点作为该连续特征的二元离散分类点。比如取到的基尼系数最小的点为$a_{t}$,则小于$a_{t}$的值为类别1,大于$a_{t}$的值为类别2,这样我们就做到了连续特征的离散化。要注意的是,与离散属性不同的是,如果当前节点为连续属性,则该属性后面还可以参与子节点的产生选择过程。 > > 对于CART分类树离散值的处理问题,采用的思路是不停的二分离散特征。 > > 回忆下ID3或者C4.5,如果某个特征A被选取建立决策树节点,如果它有A1,A2,A3三种类别,我们会在决策树上一下建立一个三叉的节点。这样导致决策树是多叉树。但是CART分类树使用的方法不同,他采用的是不停的二分,还是这个例子,CART分类树会考虑把A分成$\left \{ A_{1} \right \}$和$\left \{ A_{2},A_{3} \right \}$,$\left \{ A_{2} \right \}$和$\left \{ A_{1},A_{3} \right \}$,$\left \{ A_{3} \right \}$和$\left \{ A_{1},A_{2} \right \}$三种情况,找到基尼系数最小的组合,比如$\left \{ A_{2} \right \}$和$\left \{ A_{1},A_{3} \right \}$,然后建立二叉树节点,一个节点是A2对应的样本,另一个节点是{A1,A3}对应的节点。同时,由于这次没有把特征A的取值完全分开,后面我们还有机会在子节点继续选择到特征A来划分A1和A3。这和ID3或者C4.5不同,在ID3或者C4.5的一棵子树中,离散特征只会参与一次节点的建立。 # CART分类树建立算法的具体流程 > 上面介绍了CART算法的一些和C4.5不同之处,下面我们看看CART分类树建立算法的具体流程,之所以加上了建立,是因为CART树算法还有独立的剪枝算法这一块,这块我们在第5节讲。 > 算法输入是训练集D,基尼系数的阈值,样本个数阈值。 > 输出是决策树T。 > 我们的算法从根节点开始,用训练集递归的建立CART树。 1. 对于当前节点的数据集为D,如果样本个数小于阈值或者没有特征,则返回决策子树,当前节点停止递归。 2. 计算样本集D的基尼系数,如果基尼系数小于阈值,则返回决策树子树,当前节点停止递归。 3. 计算当前节点现有的各个特征的各个特征值对数据集D的基尼系数,对于离散值和连续值的处理方法和基尼系数的计算见第二节。缺失值的处理方法和上篇的C4.5算法里描述的相同。 4. 在计算出来的各个特征的各个特征值对数据集D的基尼系数中,选择基尼系数最小的特征A和对应的特征值a。根据这个最优特征和最优特征值,把数据集划分成两部分D1和D2,同时建立当前节点的左右节点,做节点的数据集D为D1,右节点的数据集D为D2. 5. 对左右的子节点递归的调用1-4步,生成决策树。 > 对于生成的决策树做预测的时候,假如测试集里的样本A落到了某个叶子节点,而节点里有多个训练样本。则对于A的类别预测采用的是这个叶子节点里概率最大的类别。 # CART回归树建立算法 > CART回归树和CART分类树的建立算法大部分是类似的,所以这里我们只讨论CART回归树和CART分类树的建立算法不同的地方。 > 首先,我们要明白,什么是回归树,什么是分类树。两者的区别在于样本输出,如果样本输出是离散值,那么这是一颗分类树。如果果样本输出是连续值,那么那么这是一颗回归树。 **除了概念的不同,CART回归树和CART分类树的建立和预测的区别主要有下面两点:** 1. 连续值的处理方法不同 2. 决策树建立后做预测的方式不同。 > 对于连续值的处理,我们知道CART分类树采用的是用基尼系数的大小来度量特征的各个划分点的优劣情况。这比较适合分类模型,但是对于回归模型,我们使用了常见的均方差的度量方式,CART回归树的度量目标是,对于任意划分特征A,对应的任意划分点s两边划分成的数据集D1和D2,求出使D1和D2各自集合的均方差最小,同时D1和D2的均方差之和最小所对应的特征和特征值划分点。表达式为: $$\underset{A,s}{\underbrace{min}}\left [ \underset{c_{1}}{\underbrace{min}}\sum_{x_{i}\in D_{1}(A,s)}^{n}(y_{i}-c_{1})^2+\underset{c_{2}}{\underbrace{min}}\sum_{x_{i}\in D_{2}(A,s)}^{n}(y_{i}-c_{2})^2 \right ]$$ > 其中,$c_{1}$为D1数据集的样本输出均值,$c_{2}$为D2数据集的样本输出均值。 > 对于决策树建立后做预测的方式,上面讲到了CART分类树采用叶子节点里概率最大的类别作为当前节点的预测类别。而回归树输出不是类别,它采用的是用最终叶子的均值或者中位数来预测输出结果。 > 除了上面提到了以外,CART回归树和CART分类树的建立算法和预测没有什么区别。 # CART树算法的剪枝 > CART回归树和CART分类树的剪枝策略除了在度量损失的时候一个使用均方差,一个使用基尼系数,算法基本完全一样,这里我们一起来讲。 > > 由于决策时算法很容易对训练集过拟合,而导致泛化能力差,为了解决这个问题,我们需要对CART树进行剪枝,即类似于线性回归的正则化,来增加决策树的泛化能力。但是,有很多的剪枝方法,我们应该怎么选择呢?CART采用的办法是后剪枝法,即先生成决策树,然后产生所有可能的剪枝后的CART树,然后使用交叉验证来检验各种剪枝的效果,选择泛化能力最好的剪枝策略。 > > 也就是说,CART树的剪枝算法可以概括为两步,第一步是从原始决策树生成各种剪枝效果的决策树,第二部是用交叉验证来检验剪枝后的预测能力,选择泛化预测能力最好的剪枝后的数作为最终的CART树。 > > 首先我们看看剪枝的损失函数度量,在剪枝的过程中,对于任意的一刻子树T,其损失函数为: $$C_{\alpha }(T_{t})=C(T_{t})+\alpha |T_{t}|$$ > 其中,$\alpha $为正则化参数,这和线性回归的正则化一样。$C(T_{t})$为训练数据的预测误差,分类树是用基尼系数度量,回归树是均方差度量。$|T_{t}|$是子树T的叶子节点的数量。 > > 当$\alpha=0$时,即没有正则化,原始的生成的CART树即为最优子树。当$\alpha=\infty $时,即正则化强度达到最大,此时由原始的生成的CART树的根节点组成的单节点树为最优子树。当然,这是两种极端情况。一般来说,α越大,则剪枝剪的越厉害,生成的最优子树相比原生决策树就越偏小。对于固定的α,一定存在使损失函数$C_{\alpha }(T)$最小的唯一子树。 > > 看过剪枝的损失函数度量后,我们再来看看剪枝的思路,对于位于节点t的任意一颗子树$T_{t}$,如果没有剪枝,它的损失是 $$C_{\alpha }(T_{t})=C(T_{t})+\alpha |T_{t}|$$ > 如果将其剪掉,仅仅保留根节点,则损失是 $$C_{\alpha }(T_{t})=C(T_{t})+\alpha $$ > 当$\alpha =0$或$\alpha$很小时,$C_{\alpha }(T_{t})
当α继续增大时不等式反向,也就是说,如果满足下式: $$\alpha =\frac{C(T)-C(T_{t})}{|T_{t}|-1}$$ > Tt和T有相同的损失函数,但是T节点更少,因此可以对子树Tt进行剪枝,也就是将它的子节点全部剪掉,变为一个叶子节点T。 > > 最后我们看看CART树的交叉验证策略。上面我们讲到,可以计算出每个子树是否剪枝的阈值α,如果我们把所有的节点是否剪枝的值α都计算出来,然后分别针对不同的α所对应的剪枝后的最优子树做交叉验证。这样就可以选择一个最好的α,有了这个α,我们就可以用对应的最优子树作为最终结果。 > > 好了,有了上面的思路,我们现在来看看CART树的剪枝算法。 > 输入是CART树建立算法得到的原始决策树T。 > 输出是最优决策子树$T_{\alpha }$
收藏 (0)
打赏
点赞 (0)
热门评论
到顶端
发布^_^
©2017
studyai.com
版权所有
关于我们