我是靠谱客的博主 朴实马里奥,最近开发中收集的这篇文章主要介绍决策树算法总结,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达ee1875eb9db4d902c4cc48ac47c31ab7.png

前言

决策树是机器学习模型较常用的一种方法,李航老师《统计学习方法》详细的描述了决策树的生成和剪枝,本文根据书中的内容,对决策树进行了总结。

目录


  1. 决策树不确定性的度量方法

  2. 决策树的特征筛选准则

  3. 决策函数的损失函数评估

  4. 决策树最优模型的构建步骤

  5. 决策树的优缺点分析

决策树不确定性的度量方法

1. 不确定性的理解

下图为事件A是否发生的概率分布,事件发生记为1,讨论事件A的不确定性。

8992510e32a0323680d94e798b4acac4.png

(1) 我们考虑一种极端的情况,若 p=1或 p=0,表示为事件A必定发生或事件A不可能发生,即不确定性为0。

(2) 若 p>1/2,即事件A发生的概率大于事件A不发生的概率,我们倾向于预测事件A是发生的;若 p<1/2,即事件A不发生的概率小于事件A发生的概率,我们倾向于预测事件A是不发生的。若 p=1/2,即事件A发生的概率等于事件A不发生的概率,我们无法作出预测,即事件A的不确定性达到最大,以致于我们无从预测,或者可以理解成事件A太复杂了,复杂的我们只能靠运气去猜测事件A是否发生。

2. 决策树不确定性的度量方法

本文用熵和基尼指数去衡量数据集的不确定性,假设数据集包含了K类,每个类的大小和比例分别为 Di 和 pi,i = 1,2,...K。

(1)熵的不确定性度量方法

在信息论和概率论统计中,熵是表示随机变量不确定性的度量,令熵为H(p),则:

e1c44be8524bbe945b616cd3f75cb81d.png

熵越大,数据集的不确定性就越大。

(2)基尼指数的不确定度量方法

数据集的基尼指数定义为:

e4af641b1c1f727d32db5030c0a6ec4e.png

基尼指数越大,数据集的不确定性越大。

决策树的特征筛选准则

假设数据集A共有K个特征,记为xi,i=1,2,...K。数据集A的不确定性越大,则数据集A包含的信息也越多。假设数据集A的信息为H(A),经过特征xi筛选后的信息为H(A|xi),定义信息增益g(A,xi)为两者的差值,即:

g(A,xi) = H(A) - H(A|xi)

选择使数据集A信息增益最大的特征作为筛选特征,数学表示为:

x = max( g(A,xi) ) = max( H(A) - H(A|xi) )

决策树的损失函数评估

令决策树的叶节点数为T,损失函数为:

4f333a05d3b0976f2faa34cc96169c50.png

其中C(T)为决策树的训练误差,决策树模型用不确定性表示,不确定性越大,则训练误差亦越大。T表示决策树的复杂度惩罚,α参数权衡训练数据的训练误差与模型复杂度的关系,意义相当于正则化参数。

考虑极端情况:当α趋于0的时候,最优决策树模型的训练误差接近 0,模型处于过拟合;当α趋于无穷大的时候,最优决策树模型是由根节点组成的单节点树。

决策树最优模型的构建步骤

将数据集A通过一定的比例划分为训练集和测试集。

决策树的损失函数:

6f976ade823d16b0485f57ceff68909b.png

决策树最优模型的构建步骤包括训练阶段和测试阶段:

训练阶段:

(1)最小化决策树的不确定性值得到的生成模型,即决策树生成;

(2)通过决策树剪枝,得到不同的正则化参数α下的最优决策树模型,即决策树剪枝。

下面重点讨论训练阶段的决策树生成步骤和决策树剪枝步骤。

决策树生成步骤:

(1) 根据决策树的特征筛选准则,选择数据集信息增益最大的特征;

 (2) 重复第一个步骤,直到所有叶节点的不确定性为0 。

决策树剪枝步骤:

(1) 将正则化参数α从小到大分成不同的区间70e5b340c09155b6325fb7d2d5127e4d.png,对决策树的非叶节点进行剪枝,令该节点为T,以该节点为根节点的子树为Tt。

(2) 当α满足如下条件时:

42c4e547ad17495058b3107173316c4c.png

即节点为单节点树的损失函数与子树Tt的损失函数相等,而剪枝后的复杂度降低了,泛化性能较好,因此,对该节点进行剪枝。

(3)遍历所有非叶节点,得到每个剪枝后的最优子树与对应的α参数 。

备注:决策树生成和剪枝步骤只给出大致框架,具体请参考李航《统计学习方法》

测试阶段:

通过测试集评估不同α参数下的最优决策树模型,选择测试误差最小的最优决策树模型和相应的正则化参数α。

决策树的优缺点分析

优点:

算法简单,模型具有很强的解释性

可以用于分类和回归问题

缺点:

决策树模型很容易出现过拟合现象,即训练数据集的训练误差很小,测试数据集的测试误差很大,且不同的训练数据集构建的模型相差也很大。实际项目中,我们往往不是单独使用决策树模型,为了避免决策树的过拟合,需对决策树结合集成算法使用,如bagging算法和boosting算法。

参考:

李航《统计学习方法》

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程,即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。


下载2:Python视觉实战项目52讲
在「小白学视觉」公众号后台回复:Python视觉实战项目,即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。


下载3:OpenCV实战项目20讲
在「小白学视觉」公众号后台回复:OpenCV实战项目20讲,即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。


交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~

最后

以上就是朴实马里奥为你收集整理的决策树算法总结的全部内容,希望文章能够帮你解决决策树算法总结所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(48)

评论列表共有 0 条评论

立即
投稿
返回
顶部