当前位置: 首页 > news >正文

机器学习-决策树详细解释

目录

一、预备知识

1.信息熵:

 2.条件熵:

3.信息增益

4.基于信息增益选择分割特征的过程

5. C4.5算法

6.C435算法选择特征的策略

7 基尼不纯度:

二. 决策树的核心概念

​1.树的结构

​2.关键算法

三. 决策树的构建过程

1.特征选择

2.递归分割

3.停止条件

四. 决策树的优缺点

​优点

​缺点

五. 解决过拟合的方法

​剪枝(Pruning)​

​集成方法

六. 应用场景


一、预备知识

1.信息熵:

是衡量数据集纯度的指标,熵越大,数据集的纯度越低。假设数据集S包含n个类别,第i类样本出现的概率为(pi),则数据集S的熵(H(S))计算公式为

 2.条件熵:

用于衡量在给定一个属性的条件下,数据集的不确定性。设属性A,其所有可能值为v,(Sv)是数据集S中在属性A上取值为v的子集,则给定属性A的条件下,数据集S的条件熵(H(S|A))计算公式为

3.信息增益

 衡量使用属性A来分割数据集S后,得到的纯度提升,即数据集S关于属性A的信息增益

4.基于信息增益选择分割特征的过程

  1. 初始化:将所有训练样本集放在根节点。
  2. 计算信息增益:对于当前节点,计算所有候选特征的信息增益。分别计算数据集的熵\(H(S)\)和每个特征的条件熵\(H(S|A)\),然后通过公式\(Gain(S,A)=H(S)-H(S|A)\)得出每个特征的信息增益。
  3. 选择最佳特征:选择信息增益最大的特征作为当前节点的分裂特征。因为信息增益越大,说明使用该特征进行划分后,数据集的纯度提升越大,对分类的贡献也就越大。
  4. 节点分裂:根据所选特征的每个不同取值,将当前节点划分为多个子节点,每个子节点包含该特征取值下对应的所有样本。
  5. 递归构建:对于每个子节点,递归地执行计算信息增益、选择最佳特征和节点分裂的步骤,直到满足停止条件,如所有样本属于同一类别、没有更多特征可供选择或最大信息增益小于预先设定的阈值等。

5. C4.5算法

  • 分裂信息:C4.5 算法引入了一个分裂信息(split information)的项来惩罚取值较多的特征,计算公式为分裂信息本质上也是熵的概念,只不过是按照特征的取值计算概率来计算熵,与样本的分类无关。特征取值越多,分裂信息的最大值越大。
  • 增益率计算:增益率的计算公式为即信息增益与分裂信息的比值。对于取值较多的特征,其分裂信息较大,会弱化信息增益大的优势,从而减少对高基数特征的偏向。

相关文章:

  • 决策树(Decision Tree)基础知识
  • Java TCP 通信:实现简单的 Echo 服务器与客户端
  • Scala:统计每个单词出现的个数并打印
  • SolidWorks 转 PDF3D 技术详解
  • [vue] .native修饰符
  • 【Proteus仿真】【STM32单片机】全自动养护智能生态雨林缸
  • SpringCloud篇(服务网关 - GateWay)
  • 《深度学习实战》第11集:AI大模型压缩与加速
  • Python语句中OR逻辑运算符用例分析
  • unity学习63,第2个小游戏:用fungus做一个简单对话游戏
  • grpc工具使用
  • SQL基础语法
  • 数据结构与算法:二分答案法
  • 文件IO函数和目录相关函数
  • 飞算JavaAI编程工具集成到idea中
  • STM32 -- 仿真器 ST-Link、J-Link 的连接、参数设置
  • 版本控制器Git和gdb
  • 一键无损放大视频,让老旧画面重焕新生!
  • 充分必要条件
  • 探索DeepSeek-R1的核心秘诀:突破SFT技术的新篇章
  • 美国4月CPI同比上涨2.3%低于预期,为2021年2月来最小涨幅
  • 安徽省委副秘书长、省委政研室主任余三元调任省社科院院长
  • 第四届长三角国际应急博览会开幕,超3000件前沿装备技术亮相
  • 英媒:英国首相住所起火,目前无人伤亡
  • 上海建筑领域绿色发展2025年工作要点发布
  • 宁德时代港股募资预计最高至50亿美元:90%将投向匈牙利项目