浅谈决策树

news/2024/11/29 10:45:40/

引言

   本文需要些许信息论的知识,不了解的可以去看下相关博文,还是比较容易的,虽然本科学过信息与编码的相关知识,但也是没有实际应用过,所以并不懂其真正的内涵所在,学习了决策树,补了下信息论相关的知识,在此记录一下。

什么是决策树

​ 决策树(decision tree)是一种基本的分类与回归方法。举个相亲的例子,某一天小C和他的相亲对象小K在咖啡馆里,他们之间有这样一段对话:

小C问: 家里有房吗?
小K答: 有,也就十几套
小C心想:还不错,可以进行下一步
小C继续问:家里有车吗?
小K答:有
小C接着问:做的啥工作呀,有稳定的收入来源吗?一个月工资多少?
小K答:在某小厂搬砖,一个月万把块钱吧,996,只赚钱,不花钱
.........(此处省略n个问题)
最终,小K成功成为了小C的备胎。

​ 通过上面的对话,我们不难发现,小C通过问问题的方式将小K进行归类,来判断他是不是她想要的那个人,这就是一种简单的决策树模型,我们可以用流程图来描述一下:

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

​ 长方形代表判断模块(decision block),椭圆形成代表终止模块(terminating block),表示已经得出结论,可以终止运行。从判断模块引出的左右箭头称作为分支(branch),它可以达到另一个判断模块或者终止模块。我们还可以这样理解,分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点(node)和有向边(directed edge)组成。结点有两种类型:内部结点(internal node)和叶结点(leaf node)。内部结点表示一个特征或属性,叶结点表示一个类。蒙圈没??如下图所示的决策树,长方形和椭圆形都是结点。长方形的结点属于内部结点,椭圆形的结点属于叶结点,从结点引出的左右箭头就是有向边。而最上面的结点就是决策树的根结点(root node)。这样,结点说法就与模块说法对应上了,理解就好

​ 假想有一个相亲对象分类系统。它首先检测相亲对方是否有房。如果有房,则对于这个相亲对象可以考虑进一步接触。如果没有房,则观察相亲对象是否有上进心,如果没有,直接Say Goodbye,此时可以说:"你人很好,但是我们不合适。"如果有,则可以把这个相亲对象列入候选名单,好听点叫候选名单,有点瑕疵地讲,那就是备胎。不过这只是个简单的相亲对象分类系统,只是做了简单的分类。真实情况可能要复杂得多,考虑因素也可以是五花八门。脾气好吗?会做饭吗?愿意做家务吗?家里几个孩子?父母是干什么的?天啊,我不想再说下去了,想想都可怕。我们可以把决策树看成一个if-then规则的集合,将决策树转换成if-then规则的过程是这样的:由决策树的根结点(root node)到叶结点(leaf node)的每一条路径构建一条规则;路径上内部结点的特征对应着规则的条件,而叶结点的类对应着规则的结论。决策树的路径或其对应的if-then规则集合具有一个重要的性质:互斥并且完备。这就是说,每一个实例都被一条路径或一条规则所覆盖,而且只被一条路径或一条规则所覆盖。这里所覆盖是指实例的特征与路径上的特征一致或实例满足规则的条件。

如何构建

通常,决策树的构建这一过程可以概括为3个步骤:特征选择、决策树的生成和决策树的修剪。

特征选择

特征选择在于选取对训练数据具有分类能力的特征。这样可以提高决策树学习的效率,如果利用一个特征进行分类的结果与随机分类的结果没有很大差别,则称这个特征是没有分类能力的。

如:相亲的时候,有无房产,有无上进心就是决策树的特征,但喜不喜欢打王者荣耀这可能就并不是一个好的特征,因此它并不能帮助决策者进行决策。那么问题来了,如何知道哪些特征有助于决策呢?这里就要引入信息论的知识了,通常特征选择的标准是信息增益(information gain)或信息增益比,为了简单,本文使用信息增益作为选择特征的标准(特征选择标准多种多样,具体情况具体分析,信息增益只是其中比较简单的一种)。那么,什么是信息增益?在讲解信息增益之前,让我们看一组实例,贷款申请样本数据表。

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

希望通过所给的训练数据学习一个贷款申请的决策树,用于对未来的贷款申请进行分类,即当新的客户提出贷款申请时,根据申请人的特征利用决策树决定是否批准贷款申请。

特征选择就是决定用哪个特征来划分特征空间。比如,我们通过上述数据表得到两个可能的决策树,分别由两个不同特征的根结点构成。

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

图(a)所示的根结点的特征是年龄,有3个取值,对应于不同的取值有不同的子结点。图(b)所示的根节点的特征是工作,有2个取值,对应于不同的取值有不同的子结点。两个决策树都可以从此延续下去。问题是:究竟选择哪个特征更好些?这就要求确定选择特征的准则。直观上,如果一个特征具有更好的分类能力,或者说,按照这一特征将训练数据集分割成子集,使得各个子集在当前条件下有最好的分类,那么就更应该选择这个特征。信息增益就能够很好地表示这一直观的准则。

什么是信息增益呢?在划分数据集之后信息发生的变化称为信息增益,知道如何计算信息增益,我们就可以计算每个特征值划分数据集获得的信息增益,获得信息增益最高的特征就是最好的选择。

(1)香农熵

在可以评测哪个数据划分方式是最好的数据划分之前,我们必须学习如何计算信息增益。集合信息的度量方式称为香农熵或者简称为熵(entropy),这个名字来源于信息论之父克劳德·香农。

如果看不明白什么是信息增益和熵,请不要着急,因为他们自诞生的那一天起,就注定会令世人十分费解。克劳德·香农写完信息论之后,约翰·冯·诺依曼建议使用"熵"这个术语,因为大家都不知道它是什么意思。

熵定义为信息的期望值。在信息论与概率统计中,熵是表示随机变量不确定性的度量。如果待分类的事物可能划分在多个分类之中,则符号xi的信息定义为 :

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

其中p(xi)是选择该分类的概率。有人可能会问,信息为啥这样定义啊?答曰:前辈得出的结论。这就跟1+1等于2一样,记住并且会用即可。上述式中的对数以2为底,也可以e为底(自然对数)。

通过上式,我们可以得到所有类别的信息。为了计算熵,我们需要计算所有类别所有可能值包含的信息期望值(数学期望),通过下面的公式得到:

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

期中n是分类的数目。熵越大,随机变量的不确定性就越大。

当熵中的概率由数据估计(特别是最大似然估计)得到时,所对应的熵称为经验熵(empirical entropy)。什么叫由数据估计?比如有10个数据,一共有两个类别,A类和B类。其中有7个数据属于A类,则该A类的概率即为十分之七。其中有3个数据属于B类,则该B类的概率即为十分之三。浅显的解释就是,这概率是我们根据数据数出来的。我们定义贷款申请样本数据表中的数据为训练数据集D,则训练数据集D的经验熵为H(D),|D|表示其样本容量,及样本个数。设有K个类Ck, = 1,2,3,…,K,|Ck|为属于类Ck的样本个数,因此经验熵公式就可以写为 :

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

根据此公式计算经验熵H(D),分析贷款申请样本数据表中的数据。最终分类结果只有两类,即放贷和不放贷。根据表中的数据统计可知,在15个数据中,9个数据的结果为放贷,6个数据的结果为不放贷。所以数据集D的经验熵H(D)为:

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

经过计算可知,数据集D的经验熵H(D)的值为0.971。

(2) 信息增益

在上面,我们已经说过,如何选择特征,需要看信息增益。也就是说,信息增益是相对于特征而言的,信息增益越大,特征对最终的分类结果影响也就越大,我们就应该选择对最终分类结果影响最大的那个特征作为我们的分类特征。

在讲解信息增益定义之前,我们还需要明确一个概念,条件熵。

熵我们知道是什么,条件熵又是个什么鬼?条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性,随机变量X给定的条件下随机变量Y的条件熵(conditional entropy)H(Y|X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望:

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

这里,

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

同理,当条件熵中的概率由数据估计(特别是极大似然估计)得到时,所对应的条件熵称为条件经验熵(empirical conditional entropy)。

明确了条件熵和经验条件熵的概念。接下来,让我们说说信息增益。前面也提到了,信息增益是相对于特征而言的。所以,特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即:

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

一般地,熵H(D)与条件熵H(D|A)之差称为互信息(mutual information)。决策树学习中的信息增益等价于训练数据集中类与特征的互信息。

互信息(Mutual Information)是信息论里一种有用的信息度量,它可以看成是一个随机变量中包含的关于另一个随机变量的信息量,或者说是一个随机变量由于已知另一个随机变量而减少的不肯定性。互信息越大,即代表特征A对训练数据集D的影响越大,其越有可能是好的特征。

设特征A有n个不同的取值{a1,a2,···,an},根据特征A的取值将D划分为n个子集{D1,D2,···,Dn},|Di|为Di的样本个数。记子集Di中属于Ck的样本的集合为Dik,即Dik = Di ∩ Ck,|Dik|为Dik的样本个数。于是经验条件熵的公式可以些为:

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

说了这么多概念性的东西,没有听懂也没有关系,举几个例子,再回来看一下概念,就懂了。

以贷款申请样本数据表为例进行说明。看下年龄这一列的数据,也就是特征A1,一共有三个类别,分别是:青年、中年和老年。我们只看年龄是青年的数据,年龄是青年的数据一共有5个,所以年龄是青年的数据在训练数据集出现的概率是十五分之五,也就是三分之一。同理,年龄是中年和老年的数据在训练数据集出现的概率也都是三分之一。现在我们只看年龄是青年的数据的最终得到贷款的概率为五分之二,因为在五个数据中,只有两个数据显示拿到了最终的贷款,同理,年龄是中年和老年的数据最终得到贷款的概率分别为五分之三、五分之四。所以计算年龄的信息增益,过程如下:

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

同理,计算其余特征的信息增益g(D,A2)、g(D,A3)和g(D,A4)。分别为:

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

机器学习实战教程(二):决策树基础篇之让我们从相亲说起

最后,比较特征的信息增益,由于特征A3(有自己的房子)的信息增益值最大,所以选择A3作为最优特征。

决策树生成和修剪

我们已经学习了从数据集构造决策树算法所需要的子功能模块,包括经验熵的计算和最优特征的选择,其工作原理如下:得到原始数据集,然后基于最好的属性值划分数据集,由于特征值可能多于两个,因此可能存在大于两个分支的数据集划分。第一次划分之后,数据集被向下传递到树的分支的下一个结点。在这个结点上,我们可以再次划分数据。因此我们可以采用递归的原则处理数据集。

构建决策树的算法有很多,比如C4.5、ID3和CART,这些算法在运行时并不总是在每次划分数据分组时都会消耗特征。由于特征数目并不是每次划分数据分组时都减少,因此这些算法在实际使用时可能引起一定的问题。目前我们并不需要考虑这个问题,只需要在算法开始运行前计算列的数目,查看算法是否使用了所有属性即可。

决策树生成算法递归地产生决策树,直到不能继续下去未为止。这样产生的树往往对训练数据的分类很准确,但对未知的测试数据的分类却没有那么准确,即出现过拟合现象。过拟合的原因在于学习时过多地考虑如何提高对训练数据的正确分类,从而构建出过于复杂的决策树。解决这个问题的办法是考虑决策树的复杂度,对已生成的决策树进行简化。

结语

图片来源于网络,侵删

http://www.ppmy.cn/news/451426.html

相关文章

【学术相关】好文:新手小白如何准备考研?

刚有同学问考研事宜,找到一篇好文章,给大家分享下: 新手小白如何准备考研? 作者:十五 来源:https://www.zhihu.com/question/283284100/answer/1671418066 本文目录 第一,到底要不要考研 第二…

Spring快速入门

1 Spring 1.1 简介 Spring 春天–>给软件行业带来了春天 2002 首次推出了spring框架的雏形,interface21框架 spring框架即以interface21框架为基础,经过重新设计 ,并不断丰富其内涵,与2004年3月24日,发布了11.0正…

微信小程序推荐大全之201~300个

本文摘要:小程序商店-极乐小程序商店推荐100个微信小程序,包含各行业的微信小程序大全,你需要的小程序都在极乐小程序商店。 201、爱奇艺视频 爱奇艺视频小程序简介:爱奇艺视频小程序为用户提供了正版、高清的热门电视剧资源&…

2019年3月互联网行业热点盘点

1、聊天宝团队解散 3月6日消息,快如科技旗下聊天宝(原子弹短信)于昨天下午正式宣布解散,从 200 多人的团队精简剩下二三十人,这些被解散的员工中,有部分来自社招,还有一部分来自锤子科技&#…

传奇手游漏洞获取gm权限_传奇技能第二祭:获取GM权限及管理员命令,调爆率和刷怪...

原标题:传奇技能第二祭:获取GM权限及管理员命令,调爆率和刷怪 技能献祭,Get 新技能:传奇技能——GM权限 跟航家学技能,用干货带你飞,现学现用,底部有配套学习资源 传奇技能系列-第二技 通过上一篇内容,成功运行单机并进入游戏,先走通单机,后面内容会陆续更新线上连…

中国AI公司会议室取名简史

作者:李根 来源:量子位(ID:QbitAI) 你们的会议室有名有姓吗? 会议室,科技互联网公司争夺最激烈的地方,灵感脑暴最频繁的地方,同时也可能是众多影响数字世界的技术和产品开…

十三、Python第十三课——类(包含对类的相关概念的理解,这一文的附录让你彻底明白类和对象)

(请先看置顶博文)https://blog.csdn.net/GenuineMonster/article/details/104495419 目录 (请先看置顶博文)https://blog.csdn.net/GenuineMonster/article/details/104495419 一、类和对象 1、类 2、对象 二、类的创建和实例…

软件方法(下)第8章分析之分析类图—知识篇Part07(202205更新)命名的词性和语言

DDD领域驱动设计批评文集>> 《软件方法》强化自测题集>>**** 可到此处下载《软件方法》(下)目前公开的最新pdf版本: http://www.umlchina.com/book/softmeth2.pdf 8.2.4.5 命名的词性 **类和属性应该用名词命名。**例如&…