当前位置: 首页 > news >正文

机器学习04——决策树(信息增益、信息增益率、ID3、C4.5、CART、剪枝、连续值缺失值处理)

上一章:机器学习03——线性模型
下一章:机器学习05——多分类学习与类别不平衡
机器学习实战项目:【从 0 到 1 落地】机器学习实操项目目录:覆盖入门到进阶,大学生就业 / 竞赛必备

文章目录

      • 一、决策树的基本流程
        • (一)核心原理
        • (二)生成算法
      • 二、划分选择(最优属性的判定)
        • (一)信息增益(ID3算法)
        • (二)增益率(C4.5算法)
        • (三)基尼指数(CART算法)
      • 三、剪枝处理(避免过拟合)
        • (一)预剪枝
        • (二)后剪枝
      • 四、连续值与缺失值的处理
        • (一)连续值处理(二分法)
        • (二)缺失值处理
      • 五、多变量决策树
        • (一)核心特点
      • 六、经典决策树算法与工具

一、决策树的基本流程

决策树是一种基于“分而治之”思想的监督学习模型,通过递归划分样本构建树状结构,每个节点对应一个属性测试,叶节点对应决策结果。
在这里插入图片描述

(一)核心原理
  • 决策过程:从根节点开始,对样本的某个属性进行测试,根据测试结果进入相应子节点,重复此过程直至叶节点,得到决策结果。从根节点到叶节点的路径对应一个判定规则序列。
  • 终止条件:当满足以下任一条件时,停止划分并将当前节点标记为叶节点:
    1. 当前节点的所有样本属于同一类别;
    2. 属性集为空,或所有样本在剩余属性上取值相同(此时标记为样本数最多的类别);
    3. 当前节点包含的样本集为空(此时标记为父节点样本数最多的类别)。
      在这里插入图片描述
(二)生成算法
  1. 输入:训练集D={(x1,y1),...,(xm,ym)}D=\{(x_1,y_1),..., (x_m,y_m)\}D={(x1,y1),...,(xm,ym)}和属性集A={a1,...,ad}A=\{a_1,...,a_d\}A={a1,...,ad}
  2. 递归过程(函数TreeGenerate(D,A)):
    • 生成当前节点,检查是否满足终止条件,若满足则标记为叶节点并返回;
    • 否则从属性集A中选择最优划分属性a∗a^*a
    • a∗a^*a的每个取值av∗a^*_vav,生成子节点,将D中取值为av∗a^*_vav的样本子集DvD_vDv传入子节点,递归调用TreeGenerate(Dv,A−{a∗})(D_v, A-\{a^*\})(Dv,A{a})

二、划分选择(最优属性的判定)

决策树学习的关键是选择最优划分属性,目标是使划分后各子节点的样本纯度尽可能高。经典方法包括信息增益、增益率和基尼指数。

(一)信息增益(ID3算法)
  • 信息熵:衡量样本集纯度的指标,对于包含∣Y∣|\mathcal{Y}|Y类样本的集合D,第k类样本占比为pkp_kpk,则信息熵为:
    Ent(D)=−∑k=1∣Y∣pklog⁡2pkEnt(D)=-\sum_{k=1}^{|\mathcal{Y}|} p_k \log_2 p_kEnt(D)=k=1Ypklog2pk
    Ent(D)值越小,样本集纯度越高(如全为同一类时Ent(D)=0)。
  • 信息增益:属性a对D的划分所带来的信息熵减少量,计算公式为:
    Gain(D,a)=Ent(D)−∑v=1V∣Dv∣∣D∣Ent(Dv)Gain(D,a)=Ent(D)-\sum_{v=1}^V \frac{|D^v|}{|D|}Ent(D^v)Gain(D,a)=Ent(D)v=1VDDvEnt(Dv)
    其中DvD^vDv是D中在属性a上取值为ava^vav的样本子集,V是属性a的取值数。信息增益越大,说明该属性划分后样本纯度提升越明显。
  • 示例:在“好瓜”识别中,属性“纹理”的信息增益(0.381)高于其他属性,因此被选为根节点的划分属性。
  • 局限:对取值数目多的属性有偏好(如“编号”这类唯一标识属性,信息增益通常极高,但无泛化意义)。
    在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

(二)增益率(C4.5算法)

为修正信息增益的偏好,引入增益率,定义为:
Gain_ratio(D,a)=Gain(D,a)IV(a)Gain\_ratio(D,a)=\frac{Gain(D,a)}{IV(a)}Gain_ratio(D,a)=IV(a)Gain(D,a)
其中IV(a)=−∑v=1V∣Dv∣∣D∣log⁡2∣Dv∣∣D∣IV(a)=-\sum_{v=1}^V \frac{|D^v|}{|D|}\log_2 \frac{|D^v|}{|D|}IV(a)=v=1VDDvlog2DDv为属性a的“固有值”,取值越多的属性,IV(a)越大,从而抑制高取值属性的优势。

  • 启发式策略:C4.5算法先筛选出信息增益高于平均水平的属性,再从中选择增益率最高的,平衡偏好问题。
(三)基尼指数(CART算法)

基尼指数衡量从样本集中随机抽取两个样本,其类别标记不同的概率,计算公式为:
Gini(D)=∑k=1∣Y∣∑k′≠kpkpk′=1−∑k=1∣Y∣pk2Gini(D)=\sum_{k=1}^{|\mathcal{Y}|}\sum_{k'\neq k} p_k p_{k'}=1-\sum_{k=1}^{|\mathcal{Y}|} p_k^2Gini(D)=k=1Yk=kpkpk=1k=1Ypk2
Gini(D)越小,样本集纯度越高。属性a的基尼指数为划分后各子节点基尼指数的加权和,选择基尼指数最小的属性作为划分属性。

三、剪枝处理(避免过拟合)

剪枝是决策树对抗过拟合的核心手段,通过移除冗余分支,提升模型泛化能力。分为预剪枝和后剪枝。

(一)预剪枝
  • 策略:在决策树生成过程中,对每个节点先判断划分是否能提升泛化性能(通过验证集精度评估),若不能则停止划分,将当前节点标记为叶节点。
  • 示例:对“好瓜”数据集的根节点,若不划分(标记为“好瓜”),验证集精度为42.9%;若用“脐部”划分,精度提升至71.4%,则进行划分;后续子节点若划分不能提升精度,则停止。
  • 优缺点
    • 优点:减少训练和测试时间开销;
    • 缺点:可能因“贪心”策略错过后续有效划分,导致欠拟合。

在这里插入图片描述

(二)后剪枝
  • 策略:先生成完整决策树,再自底向上考察非叶节点,若将其子树替换为叶节点能提升泛化性能,则剪枝。
  • 示例:对完整决策树的子节点,若替换为叶节点后验证集精度从42.9%提升至更高,则剪枝;最终保留更多有效分支。
  • 优缺点
    • 优点:泛化性能通常优于预剪枝,保留更多有效分支;
    • 缺点:需生成完整树后逐一考察,计算开销大。

在这里插入图片描述

四、连续值与缺失值的处理

实际数据中常包含连续属性(如“密度”“含糖率”)或缺失值,需特殊处理。

(一)连续值处理(二分法)
  1. 候选划分点:将连续属性a的取值从小到大排序为a1,...,ana^1,...,a^na1,...,an,取相邻值的中位点作为候选划分点:
    Ta={ai+ai+12∣1≤i≤n−1}T_a=\left\{\frac{a^i+a^{i+1}}{2} \mid 1\leq i \leq n-1\right\}Ta={2ai+ai+11in1}
  2. 最优划分点:计算每个候选点的信息增益,选择增益最大的点作为划分点,将样本分为“≤t”和“>t”两类。
  • 示例:属性“密度”的候选划分点包括0.244、0.294等,通过计算信息增益选择最优划分点。
    在这里插入图片描述
(二)缺失值处理

需解决两个问题:如何选择划分属性,以及如何划分含缺失值的样本。

  1. 划分属性选择

    • 定义无缺失值样本子集D~\tilde{D}D~,计算其占总样本的比例ρ\rhoρ、各类别占比p~k\tilde{p}_kp~k、属性a各取值占比r~v\tilde{r}_vr~v
    • 信息增益修正为:Gain(D,a)=ρ×[Ent(D~)−∑v=1Vr~vEnt(D~v)]Gain(D,a)=\rho \times [Ent(\tilde{D})-\sum_{v=1}^V \tilde{r}_v Ent(\tilde{D}^v)]Gain(D,a)=ρ×[Ent(D~)v=1Vr~vEnt(D~v)],其中Ent(D~)=−∑kp~klog⁡2p~kEnt(\tilde{D})=-\sum_k \tilde{p}_k \log_2 \tilde{p}_kEnt(D~)=kp~klog2p~k
  2. 样本划分

    • 若样本在属性a上取值已知,划入对应子节点,权重不变;
    • 若取值缺失,按r~v\tilde{r}_vr~v(属性a取值ava^vav的比例)将样本权重分配到各子节点(即wx×r~vw_x \times \tilde{r}_vwx×r~v)。

五、多变量决策树

传统决策树(单变量)的非叶节点仅测试单个属性,分类边界与坐标轴平行;多变量决策树的非叶节点是多个属性的线性组合,分类边界更灵活。

(一)核心特点
  • 每个非叶节点对应一个线性分类器:∑i=1dwiai=t\sum_{i=1}^d w_i a_i = ti=1dwiai=t,其中wiw_iwi是属性aia_iai的权重,t是阈值,两者通过样本集学习得到。
  • 优势:能拟合复杂的分类边界,减少决策树深度,提升泛化能力。
  • 示例:通过“-0.800×密度 -0.044×含糖量 < -0.313”这样的线性组合划分样本,比单属性划分更精准。
    在这里插入图片描述

六、经典决策树算法与工具

  • 算法:ID3(信息增益)、C4.5(增益率,支持连续值和缺失值)、C5.0(C4.5的改进版,效率更高)、CART(基尼指数,可用于分类和回归);
  • 工具:J48(WEKA中C4.5的实现)等。

上一章:机器学习03——线性模型
下一章:机器学习05——多分类学习与类别不平衡
机器学习实战项目:【从 0 到 1 落地】机器学习实操项目目录:覆盖入门到进阶,大学生就业 / 竞赛必备


文章转载自:

http://7bMGyDhs.dpbgw.cn
http://8oompdbe.dpbgw.cn
http://wJRum74I.dpbgw.cn
http://20TJ7YTe.dpbgw.cn
http://cAgciVDB.dpbgw.cn
http://L6jxUsHY.dpbgw.cn
http://AasNuffh.dpbgw.cn
http://bfcFeP0u.dpbgw.cn
http://ZAkbhC4p.dpbgw.cn
http://K9dSwAwv.dpbgw.cn
http://F4CFHLNZ.dpbgw.cn
http://0ekmp5rY.dpbgw.cn
http://HW6YnLA9.dpbgw.cn
http://gJvaJS8J.dpbgw.cn
http://B9T22Dip.dpbgw.cn
http://SFBggVgz.dpbgw.cn
http://TZ8WAo2d.dpbgw.cn
http://k69PmNvp.dpbgw.cn
http://7sSytq4o.dpbgw.cn
http://0rYYtYeG.dpbgw.cn
http://vKkuEHu4.dpbgw.cn
http://IdQKJ6Ci.dpbgw.cn
http://71pOXm6s.dpbgw.cn
http://CaXqfa3y.dpbgw.cn
http://0mGaoBFf.dpbgw.cn
http://W1YVAx5h.dpbgw.cn
http://WsitTYoB.dpbgw.cn
http://ytgF4wnC.dpbgw.cn
http://vjS2Fec8.dpbgw.cn
http://nlhVhqtj.dpbgw.cn
http://www.dtcms.com/a/374808.html

相关文章:

  • Javaweb - 14.6 - Vue3 数据交互 Axios
  • LeetCode 单调栈 739. 每日温度
  • Spark面试题及详细答案100道(71-80)-- 配置与部署
  • UDP特点及报文结构
  • ollama离线部署加载Qwen3-0.6b模型
  • 零基础12周精通Linux学习计划
  • Linux Shell 条件测试与 if 语句全解析
  • C语言内存精讲系列(九):深化详述 int 3(附录:int3 调试关键工具与实战案例)
  • 案例开发 - 日程管理 - 第六期
  • TCP 三次握手、四次挥手
  • 问题排查:之前运行正常的系统,突然批量接口报 404
  • 【Java实战㊱】Spring Boot邂逅Redis:缓存加速的奇妙之旅
  • Spring Cache 多租户缓存隔离解决方案实践
  • Mybatis-12 第三方缓存-EhCache
  • 【C++】特别的程序错误处理方式——异常机制
  • 嵌入式设备上mqtt库的使用
  • 【Linux基础知识系列:第一百二十六篇】使用dd命令进行磁盘复制
  • 从零到一使用Linux+Nginx+MySQL+PHP搭建的Web网站服务器架构环境——LNMP(上)
  • 使用虚拟机Ubuntu搭建mosquito服务器 使esp32、上位机通信
  • 云计算技术栈
  • 国产时序数据库选型指南-从大数据视角看透的价值
  • 东京本社招聘 | 财务负责人 多个日本IT岗位(Java/C++/Python/AWS 等),IT营业同步招募
  • AWS ALB 详解:智能流量调度器
  • Django REST框架:ModelViewSet全面解析
  • 基于Centos7.9搭建svn服务端
  • PyTorch 和nn.Conv2d详解
  • pytorch基本运算-分离计算
  • 基于容器化云原生的 MySQL 及中间件高可用自动化集群项目
  • “图观”端渲染场景编辑器
  • 构建分布式京东商品数据采集系统:基于 API 的微服务实现方案