当前位置: 首页 > news >正文

机器学习与深度学习06-决策树02

目录

    • 前文回顾
    • 5.决策树中的熵和信息增益
    • 6.什么是基尼不纯度
    • 7.决策树与回归问题
    • 8.随机森林是什么

前文回顾

上一篇文章地址:链接

5.决策树中的熵和信息增益

熵和信息增益是在决策树中用于特征选择的重要概念,它们帮助选择最佳特征进行划分。

  1. 熵(Entropy):熵是信息论中用来度量不确定性或混乱程度的概念。在决策树中,熵被用来度量一个节点的不纯度,即该节点包含多少不同类别的样本,熵的计算公式为,对于节点t, p i p_i pi表示类别i在节点t中的样本比例

E n t r o p y ( t ) = − ∑ i = 1 c p i log ⁡ 2 ( p i ) Entropy(t) = - \sum_{i = 1}^{c} p_i \log_2(p_i) Entropy(t)=i=1cpilog2(pi)
其中,c表示类别的数量。熵的值在0和1之间,越接近0表示节点越纯净,越接近1表示节点的不纯度越高。

  1. 信息增益(Information Gain):信息增益用于选择最佳特征来划分数据集。它衡量了通过选择某个特征进行划分后,父节点的熵减少了多少,即子节点的不纯度相对于父节点而言减少了多少, 信息增益的计算公式为
    I n f o r m a t i o n G a i n ( D , A ) = E n t r o p y ( D ) − ∑ v ∈ V a l u e s ( A ) ∣ D v ∣ ∣ D ∣ E n t r o p y ( D v ) Information \ Gain(D, A) = Entropy(D) - \sum_{v \in Values(A)} \frac{|D_v|}{|D|} Entropy(D_v) Information Gain(D,A)=Entropy(D)vValues(A)DDvEntropy(Dv)
    其中,D是父节点的数据集,A是要划分的特征, V a l u e s ( A ) Values(A) Values(A)是特征A的取值集合, D v D_v Dv是特征A取值为v时的子节点数据集,信息增益的目标是选择使得信息增益最大的特征来进行划分,因为最大的信息增益意味着划分后的子节点更纯净,不确定性更低。因此,信息增益可以帮助决策树选择最能有效地划分数据的特征,从而构建更加有用的决策树模型
    需要注意的是,信息增益在选择特征时有一定的偏向性,它倾向于选择取值较多的特征,因此在某些情况下可能不适用。为了解决这个问题,基尼不纯度(Gini Impurity)是另一种可选的划分准则,它在某些情况下更适用于特征选择。在实际应用中,可以根据具体问题和数据集选择适当的划分准则

6.什么是基尼不纯度

基尼不纯度是一种用于决策树中的划分准则,它用来度量一个节点的不纯度或混乱程度,基尼不纯度越低,表示节点的纯度越高,即该节点包含的样本更倾向于属于同一类别。与信息增益不同,基尼不纯度不依赖于对数,计算相对较为简单。基尼不纯度的计算公式为,对于节点t, p i p_i pi表示类别i在节点t中的样本比例
G i n i ( t ) = 1 − ∑ i = 1 c ( p i ) 2 Gini(t) = 1 - \sum_{i = 1}^{c} (p_i)^2 Gini(t)=1i=1c(pi)2
其中,c表示类别的数量。基尼不纯度的值在0和1之间,越接近0表示节点越纯净,越接近1表示节点的不纯度越高,与信息增益相比,基尼不纯度有一些不同之处:

  1. 计算方式:信息增益使用对数计算,而基尼不纯度使用平方计算。这意味着基尼不纯度对误分类的惩罚相对较小,因此更偏向于选择具有最大基尼不纯度下降的特征
  2. 取值范围:信息增益的取值范围在0到1之间,而基尼不纯度的取值范围也在0到1之间,但通常基尼不纯度的值略高于信息增益
  3. 应用场景:基尼不纯度在某些情况下更适用于特征选择。特别是在处理多分类问题(类别数较多)时,基尼不纯度通常表现更好,因为它偏向于选择取值较少的特征,可以降低树的复杂度

在选择划分特征时,可以根据具体问题和数据集的特点选择使用信息增益或基尼不纯度。通常情况下,它们都是有效的划分准则,但在不同情况下可能表现出不同的优势。机器学习库(如Scikit-Learn)通常提供了两者的选项,以便根据问题需求进行选择

7.决策树与回归问题

决策树是一种用于分类和回归问题的机器学习模型,它们的主要区别在于应用的问题类型和输出变量的性质。

  1. 分类问题:在分类问题中,目标是将输入数据分为预定义的类别或标签中的一个。决策树用于解决分类问题时,每个叶子节点代表一个类别,模型通过从根节点到叶子节点的路径来确定数据点的类别。例如,可以使用决策树来判断电子邮件是垃圾邮件还是正常邮件、患者是否患有某种疾病等
  2. 回归问题:在回归问题中,目标是预测一个连续的数值输出,而不是分类标签。决策树用于解决回归问题时,每个叶子节点代表一个数值,模型通过从根节点到叶子节点的路径来预测数据点的数值输出。例如,可以使用决策树来预测房屋价格、股票价格等连续性输出
  3. 主要区别:主要区别在于输出变量的性质。分类问题的输出是离散的类别标签,而回归问题的输出是连续的数值。决策树的构建和评估方法在两种问题中基本相同,但叶子节点的表示和预测方式不同
  4. 将决策树应用于回归问题:要将决策树应用于回归问题,需要对其进行一些适应性修改

以下是一些将决策树用于回归问题的关键点:

  1. 叶子节点的表示:在回归决策树中,叶子节点不再代表类别标签,而代表数值。通常,叶子节点的数值是该节点中所有训练样本的目标变量值的平均值
  2. 划分准则:在回归决策树中,常用的划分准则包括均方误差(Mean Squared Error)和平均绝对误差(Mean Absolute Error)。划分时选择使均方误差或平均绝对误差最小化的特征和取值
  3. 剪枝:与分类决策树类似,回归决策树也可以进行剪枝操作,以减小树的复杂度,提高泛化能力
  4. 评估指标:在回归问题中,通常使用均方误差、平均绝对误差、决定系数(R-squared)等指标来评估模型的性能

8.随机森林是什么

随机森林(Random Forest)是一种集成学习算法,用于改进单个决策树模型的性能。是一种强大且广泛应用的机器学习方法,随机森林的核心思想是通过构建多个决策树,并将它们的预测结果结合起来,来提高整体模型的性能和鲁棒性,以下是随机森林是如何改进单个决策树模型性能的主要方式

  1. 随机抽样(Bootstrap抽样):在构建每棵决策树时,随机森林从训练数据中使用有放回抽样(Bootstrap抽样)来创建不同的训练子集。这意味着每棵树使用的数据集都是略有不同的,从而增加了模型的多样性
  2. 随机特征选择:在每次分裂决策树节点时,随机森林不考虑所有特征,而是从所有特征中随机选择一个子集用于分裂。这样可以防止某些特征在模型中占据主导地位,增加了模型的多样性,同时也提高了计算效率
  3. 多数投票或平均:当随机森林中的所有决策树都构建完成后,它们的预测结果会被结合起来。对于分类问题,采用多数投票的方式,即每棵树投票选择类别,最终选择得票最多的类别作为模型的预测结果。对于回归问题,采用平均的方式,即将所有树的预测结果取平均值作为最终预测值
  4. 降低过拟合风险:由于随机森林的每个决策树都是在不同的子集上训练的,因此它们具有较高的多样性,降低了过拟合的风险。这意味着即使训练数据中存在噪声或异常值,随机森林也能够产生稳健的预测
  5. 高性能:随机森林通常在处理大规模数据集时表现良好,因为每棵决策树可以并行构建,从而提高了训练速度。此外,它们通常不需要太多的超参数调整,使其易于使用

总的来说,随机森林通过组合多个决策树,利用随机性和投票策略,改进了单个决策树的性能,提高了模型的泛化能力和鲁棒性,适用于各种机器学习任务,包括分类、回归和特征选择

相关文章:

  • day17 常见聚类算法
  • 深入理解MCP模型协议:构建全能AI服务端
  • 学习STC51单片机22(芯片为STC89C52RCRC)
  • LLMTIME: 不用微调!如何用大模型玩转时间序列预测?
  • Pytorch---ImageFolder
  • 什么是闭包
  • 姜老师MBTI课程:ISTP和ISFP
  • Thinkphp6实现websocket
  • 秒杀系统—5.第二版升级优化的技术文档三
  • 设备健康管理的战略升维:用预测性维护重构企业竞争力
  • Linux 基础IO(上)
  • VR/AR 显示瓶颈将破!铁电液晶技术迎来关键突破
  • Android15 userdebug版本不能remount
  • 玩客云 OEC/OECT 笔记
  • 嵌入式RTC工作原理及应用场景
  • 【MYSQL】索引篇(一)
  • 前端面试准备-4
  • python打卡第41天
  • RESTful API原理,以及如何使用它构建 web 应用程序
  • 配置前端控制器
  • 企业网站建设御彩云/推广一单500
  • 网站开发建设须知/百度收录需要多久
  • 那些网站是php开发的/怎么关键词优化网站
  • 旅游业网站开发建设/舟山seo
  • 天津网站策划/郑州搜狗关键词优化顾问
  • 营销网站建设视频/天津短视频seo