决策树(Decision Tree)完整解析:原理 + 数学推导 + 剪枝 + 实战
1️⃣ 什么是决策树?
决策树(Decision Tree)是一种常见的监督学习方法,可用于分类和回归。
其基本思想是:
通过特征条件的逐层划分,将数据集分割成越来越“纯净”的子集,直到子集中的样本几乎属于同一类别。
最终输出是一个树形结构,每个叶节点对应一个类别或预测值。
2️⃣ 决策树的构建思想
从根节点开始,选择一个最佳特征来划分数据集
对划分后的子集递归构建子树
当满足停止条件时(子集纯净、特征用尽或达到深度限制)终止
3️⃣ 特征选择指标
决策树核心在于:如何选择最优的划分特征?
(1) 信息增益(ID3算法)
熵(Entropy)定义:
其中 是类别
在数据集
中的概率。
信息增益定义:
:特征
:在特征
下的数据子集
优点:选择信息增益最大的特征,降低数据的不确定性。
(2) 信息增益率(C4.5算法)
信息增益率定义:
其中
(3) 基尼指数(CART算法)
基尼指数定义:
某特征 的基尼指数:
4️⃣ 决策树生成与剪枝
4.1 生成过程
递归划分数据集
根据指标(信息增益/基尼指数)选择最优特征
当样本数量小于阈值或特征用尽,生成叶节点
4.2 剪枝(Pruning)
防止过拟合,主要有两类:
预剪枝(Pre-Pruning):
在生成树时提前终止划分,例如:最大深度限制
节点最小样本数限制
信息增益小于阈值
后剪枝(Post-Pruning):
完整生成树后,再自底向上删除不必要的分支。
5️⃣ 决策树的完整数学表达
分类决策函数为:
回归任务可输出均值:
6️⃣ Python实现(Sklearn)
from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier, export_text# 加载数据
X, y = load_iris(return_X_y=True)# 构建决策树
clf = DecisionTreeClassifier(criterion="gini", max_depth=3, random_state=0)
clf.fit(X, y)# 输出结构
print(export_text(clf, feature_names=["sepal_length","sepal_width","petal_length","petal_width"]))
如果需要可视化:
from sklearn import tree
import matplotlib.pyplot as pltplt.figure(figsize=(12,8))
tree.plot_tree(clf, filled=True, feature_names=["sepal_length","sepal_width","petal_length","petal_width"])
plt.show()
7️⃣ 优缺点总结
✅ 优点
可解释性强,输出清晰的规则
不需要大量特征工程(无需归一化)
能同时处理数值型和离散型特征
❌ 缺点
容易过拟合,需要剪枝
对数据微小波动敏感
贪心选择特征,可能不是全局最优
8️⃣ 应用场景
风控评分卡(可解释性需求高)
医学诊断、临床辅助
客户细分、市场营销
与集成学习(RandomForest、XGBoost)结合
📚 总结
ID3 用信息增益,C4.5 用信息增益率,CART 用基尼指数
剪枝是防止过拟合的关键步骤
决策树是集成学习方法的核心基学习器