当前位置: 首页 > article >正文

《机器学习》周志华-CH4(决策树)

4.1基本流程

  决策树是一类常见的机器学习方法,又称“判别树”,决策过程最终结论对应了我们所希望的判定结果。

一棵决策树 { 一个根结点 包含样本全集 若干个内部结点 对应属性测试,每个结点包含的样本集合根据属性测试结果划分到子结点中 若干个叶结点 对应决策结果 一棵决策树 \begin{cases} 一个根结点 &包含样本全集 \\ 若干个内部结点 & 对应属性测试,每个结点包含的样本集合根据属性测试结果划分到子结点中 \\ 若干个叶结点 & 对应决策结果 \\ \end{cases} 一棵决策树 一个根结点若干个内部结点若干个叶结点包含样本全集对应属性测试,每个结点包含的样本集合根据属性测试结果划分到子结点中对应决策结果

  决策树的生成是一个递归过程

  有三种情况会递归返回
在这里插入图片描述

4.2划分选择

  关键在于如何选择最优划分属性

  我们希望决策树分支结点所包含的样本尽可能属同一类别,即“纯度”(purity)越来越高

4.2.1信息增益

  “信息熵”(information entropy)是度量样本纯度的一种指标
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  学习一棵能预测是不是好瓜的决策树。 ∣ y ∣ = 2 |y|=2 y=2

  数据集一共17个西瓜,正例8个,反例9个。则 P 1 = 8 17 P_{1}=\frac{8}{17} P1=178, P 2 = 9 17 P_{2}=\frac{9}{17} P2=179

  信息熵:

  计算当前属性集合{色泽,根蒂,瞧声,纹理,脐部,触感}每个属性信息增益。

在这里插入图片描述
在这里插入图片描述
同理其他信息增益 { G a i n ( D , 根蒂 ) = 0.143 G a i n ( D , 敲声 ) = 0.141 G a i n ( D , 纹理 ) = 0.381 最大,选为划分属性 G a i n ( D , 脐部 ) = 0.289 G a i n ( D , 触感 ) = 0.006 同理其他信息增益 \begin{cases} Gain(D,根蒂)=0.143 &\\ Gain(D,敲声)=0.141 & \\ Gain(D,纹理)=0.381 & 最大,选为划分属性 \\ Gain(D,脐部)=0.289 & \\ Gain(D,触感)=0.006 & \\ \end{cases} 同理其他信息增益 Gain(D,根蒂)=0.143Gain(D,敲声)=0.141Gain(D,纹理)=0.381Gain(D,脐部)=0.289Gain(D,触感)=0.006最大,选为划分属性

在这里插入图片描述

在这里插入图片描述

4.2.2增益率

  信息增益准则对可取值数目较多的属性有所偏好

   C 4.5 C_{4.5} C4.5决策树算法不直接使用信息增益,而是使用“增益率”(gain ratio)

在这里插入图片描述

  增益率准则对可取值数目较少的属性有所偏好。

   C 4.5 C_{4.5} C4.5并不是直接使用增益率:先找信息增益高于平均水平的,再选择增益率最高。

4.2.3基尼参数

  CART决策树使用“基尼指数”选择划分属性
在这里插入图片描述

4.3剪枝处理

  剪枝(pruning)是用来解决“过拟合”,比如分支过多,把训练集自身的一些特点当作所有数据的一般性质。
在这里插入图片描述

4.3.1预剪枝

在这里插入图片描述

4.4连续与缺失值

4.4.1连续值处理

  由于连续属性的可取值数目不再有限,连续属性离散化技术可派上用场。比如二分法(bipartition-)对连续属性进行处理( C 4.5 C_{4.5} C4.5决策树机制)

  给定样本集 D D D,连续属性 a a a

  假定 a a a D D D上出现了 n n n个不同值,从小到大排序
在这里插入图片描述
在这里插入图片描述

4.4.2缺失值处理

  比如一些缺失属性值进行训练样例

  (1)如何在属性缺失的情况下进行划分属性选择?
  (2)给定划分属性,若该属性上的值缺失,如何对样本进行划分?
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
  举例,数据集看之前 C 4.5 算法策略如上页一样的解决方案 C_{4.5}算法策略如上页一样的解决方案 C4.5算法策略如上页一样的解决方案

   D D D一共有17个样例{1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17},各样例权值均为1

  以属性“色泽”为例,属性上无缺失值的样例子集

在这里插入图片描述
在这里插入图片描述

4.5多变量决策树

  若我们把每个属性视为坐标空间中的一个坐标轴,则 d d d个属性描述的样本就对应了 d d d维空间中的一个数据点寻找,寻找不同样本的分类边界。
  决策树形成的分类边界特点:轴平行(axis-parallel),分类边界由若干个与坐标轴平行的分段组成

在这里插入图片描述
在这里插入图片描述


http://www.kler.cn/a/290070.html

相关文章:

  • Spring高手之路26——全方位掌握事务监听器
  • 【HarmonyOS NEXT】一次开发多端部署(以轮播图、Tab栏、列表为例,配合栅格布局与媒体查询,进行 UI 的一多开发)
  • @ComponentScan:Spring Boot中的自动装配大师
  • 2024-11-13 学习人工智能的Day26 sklearn(2)
  • NVIDIA Isaac Sim 仿真平台体验测评
  • 网络安全-蓝队基础
  • (六)进入MySQL 【MySQL高阶语句】
  • Oracle 和 PostgreSQL 主从对比介绍
  • 基于SpringBoot的校园闲置物品交易管理系统
  • 【linux】Cannot find a valid baseurl for repo: base/7/x86_64、linux常见的命令
  • docker实战基础四(如何在容器中调试和排查运行问题)
  • RFID光触发标签与端口自检功能新型光交箱哑资源管理方案
  • 基于深度学习的植物虫害检测
  • UDP报文结构
  • 【机器学习】集成学习的基本概念、Bagging和Boosting的区别以及集成学习方法在python中的运用(含python代码)
  • Python集成学习和随机森林算法使用详解
  • HarmonyOS开发实战( Beta5版)Stack组件实现滚动吸顶效果实现案例
  • 第86集《大佛顶首楞严经》
  • JVM 锁的种类
  • 一起学习LeetCode热题100道(70/100)
  • 深入了解 Kafka:应用场景、架构和GO代码示例
  • lodash
  • 网络安全服务基础Windows--第9节-DNS部署与安全
  • 《OpenCV计算机视觉》—— 对图片的各种操作
  • Vue3 非父子组件之间通信
  • js对象操作常用方法