当前位置: 首页 > article >正文

决策树的优缺点

决策树优点
1. 易于理解和解释,因为树木可以画出来被看见
2. 需要很少的数据准备。其他很多算法通常都需要数据规范化,需要创建虚拟变量并删除空值等。但请注意, sklearn中的决策树模块不支持对缺失值的处理。
3. 使用树的成本(比如说,在预测数据的时候)是用于训练树的数据点的数量的对数,相比于其他算法,这是 一个很低的成本。
4. 能够同时处理数字和分类数据,既可以做回归又可以做分类。其他技术通常专门用于分析仅具有一种变量类 型的数据集。
5. 能够处理多输出问题,即含有多个标签的问题,注意与一个标签中含有多种标签分类的问题区别开
6. 是一个白盒模型,结果很容易能够被解释。如果在模型中可以观察到给定的情况,则可以通过布尔逻辑轻松 解释条件。相反,在黑盒模型中(例如,在人工神经网络中),结果可能更难以解释。
7. 可以使用统计测试验证模型,这让我们可以考虑模型的可靠性。
8. 即使其假设在某种程度上违反了生成数据的真实模型,也能够表现良好。
决策树的缺点
1. 决策树学习者可能创建过于复杂的树,这些树不能很好地推广数据。这称为过度拟合。修剪,设置叶节点所 需的最小样本数或设置树的最大深度等机制是避免此问题所必需的,而这些参数的整合和调整对初学者来说 会比较晦涩
2. 决策树可能不稳定,数据中微小的变化可能导致生成完全不同的树,这个问题需要通过集成算法来解决。
3. 决策树的学习是基于贪婪算法,它靠优化局部最优(每个节点的最优)来试图达到整体的最优,但这种做法 不能保证返回全局最优决策树。这个问题也可以由集成算法来解决,在随机森林中,特征和样本会在分枝过 程中被随机采样。
4. 有些概念很难学习,因为决策树不容易表达它们,例如XOR,奇偶校验或多路复用器问题。
5. 如果标签中的某些类占主导地位,决策树学习者会创建偏向主导类的树。因此,建议在拟合决策树之前平衡 数据集。


http://www.kler.cn/news/109270.html

相关文章:

  • 磁盘管理(初始化,引导块,坏块管理,固态硬盘)
  • c# .net linux ImageSharp+FastDFS+Base64上传图片,压缩图片大小,图像处理dcoker中使用也可以
  • 汽车混动技术
  • docker 启动简单的开发环境(mysql, redis, etcd)
  • MySQL WITH AS及递归查询
  • ELASTICO-A Secure Sharding Protocol For Open Blockchains
  • 目标检测YOLO实战应用案例100讲-高速铁路供电安全检测监测系统图像智能识别(中)
  • 七层负载均衡 HAproxy
  • 由k8s升级慢引起的etcd性能不足的问题排查
  • Windows-Oracle11g 安装详解-含Navicate远程连接配置 -本地监听设置及更换navicate环境指向的oci.dll
  • 人工智能在疾病治疗中的应用:机遇与挑战
  • redis原理 主从同步和哨兵集群
  • 【蓝桥杯选拔赛真题05】C++超级素数 青少年组蓝桥杯C++选拔赛真题 STEMA比赛真题解析
  • VR数字党建:红色文化展厅和爱国主义教育线上线下联动
  • 2023秋《论文写作》课程总结
  • go-kit中如何开启websocket服务
  • 23种设计模式在SpringCloud源码里的应用
  • 单元测试,集成测试,系统测试的区别是什么?
  • css position属性与js滚动
  • Leetcode 2914. Minimum Number of Changes to Make Binary String Beautiful
  • 一个特殊级数的敛散性判断
  • C#,数值计算——分类与推理Svmlinkernel的计算方法与源程序
  • k8s二进制安装部署
  • 适用于 Mac 或 Windows 的 4 种最佳 JPEG/PNG图片 恢复软件
  • 在Go项目中二次封装Kafka客户端功能
  • rust学习-LinkedList
  • 物联网和互联网医院小程序:如何实现医疗设备的远程监测和管理?
  • H5游戏源码分享-接苹果游戏拼手速
  • Python requests之Session
  • Knife4j使用教程(三) -- 实体类的配置注解(@ApiModel与@ApiModelProperty 的 认识与使用)