我是靠谱客的博主 笑点低路灯,最近开发中收集的这篇文章主要介绍CART回归树和CART分类树的区别,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

除了概念的不同,CART回归树和CART分类树的建立和预测的区别主要有下面两点:

  • 1)连续值的处理方法不同
  • 2)决策树建立后做预测的方式不同。
  • 对于连续值的处理,CART分类树采用的是用基尼系数的大小来度量特征的各个划分点的优劣情况。这比较适合分类模型,但是对于回归模型,使用了常见的和方差的度量方式,CART回归树的度量目标是,对于任意划分特征A,对应的任意划分点s两边划分成的数据集D1和D2,求出使D1和D2各自集合的均方差最小,同时D1和D2的均方差之和最小所对应的特征和特征值划分点。表达式为:

其中,c1为D1数据集的样本输出均值,c2为D2数据集的样本输出均值。

  • 对于决策树建立后做预测的方式,CART分类树采用叶子节点里概率最大的类别作为当前节点的预测类别。而回归树输出不是类别,它采用的是用最终叶子的均值或者中位数来预测输出结果。

最后

以上就是笑点低路灯为你收集整理的CART回归树和CART分类树的区别的全部内容,希望文章能够帮你解决CART回归树和CART分类树的区别所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(68)

评论列表共有 0 条评论

立即
投稿
返回
顶部