当前位置: 首页 > news >正文

第二十七课:手搓梯度提升树

🌳 Python实现梯度提升树(GBDT):让决策树"代代进化"的魔法

梯度提升树就像一群小树苗在接力成长,每棵新树都专注于前辈们犯过的错误,最终长成一片预测能力强大的森林。下面我用Python展示这个强大的算法。

🧰 准备工具包

from sklearn.ensemble import GradientBoostingRegressor  # 回归问题用
from sklearn.ensemble import GradientBoostingClassifier  # 分类问题用
from sklearn.datasets import make_regression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error, accuracy_score
import numpy as np
import matplotlib.pyplot as plt

🌲 梯度提升树四步曲

1. 创建模拟数据(回归问题示例)

# 生成一个有噪声的波浪形数据集
np.random.seed(42)
X = np.linspace(0, 10, 100).reshape(-1, 1)
y = np.sin(X).ravel() + np.random.normal(0, 0.1, X.shape[0])# 分割数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)plt.scatter(X_train, y_train, label='训练数据')
plt.title("原始数据")
plt.legend()
plt.show()

2. 训练GBDT模型

# 创建梯度提升树回归器
gbr = GradientBoostingRegressor(n_estimators=100,  # 100棵小树learning_rate=0.1, # 学习率max_depth=3,       # 每棵树的最大深度min_samples_split=2, random_state=42
)# 训练模型
gbr.fit(X_train, y_train)# 预测
y_pred = gbr.predict(X_test)# 计算均方误差
mse = mean_squared_error(y_test, y_pred)
print(f"测试集均方误差(MSE): {mse:.4f}")

3. 可视化预测效果

# 生成预测线
X_plot = np.linspace(0, 10, 1000).reshape(-1, 1)
y_plot = gbr.predict(X_plot)plt.scatter(X_train, y_train, label='训练数据')
plt.plot(X_plot, y_plot, color='red', linewidth=2, label='GBDT预测')
plt.title("梯度提升树回归效果")
plt.legend()
plt.show()

4. 查看训练过程(分类问题示例)

# 创建分类数据集
from sklearn.datasets import make_classification
X_clf, y_clf = make_classification(n_samples=1000, n_features=10, n_classes=2, random_state=42)# 分割数据
X_train_clf, X_test_clf, y_train_clf, y_test_clf = train_test_split(X_clf, y_clf, test_size=0.2, random_state=42)# 训练分类器
gbc = GradientBoostingClassifier(n_estimators=100, random_state=42)
gbc.fit(X_train_clf, y_train_clf)# 查看训练过程中准确率的变化
test_acc = [accuracy_score(y_test_clf, y_pred) for y_pred in gbc.staged_predict(X_test_clf)]plt.plot(range(1, 101), test_acc)
plt.xlabel("树的数量")
plt.ylabel("测试集准确率")
plt.title("GBDT分类器学习曲线")
plt.show()

🍎 通俗例子:预测水果价格

假设我们有3天的水果销售数据:

天数天气(1-5)周末(0/1)实际价格
13010元
25115元
3208元

GBDT的工作流程

  1. 第一棵树(基础模型):
    • 简单预测:所有水果均价11元
    • 残差(误差):[-1, +4, -3](实际-预测)
  2. 第二棵树
    • 学习目标:预测第一棵树的残差
    • 发现规则:如果是周末 → +3.5元,否则 → -2元
    • 新预测:11 + 3.5 = 14.5(周末), 11 - 2 = 9(非周末)
    • 新残差:[-1, +0.5, -1]
  3. 第三棵树
    • 继续学习剩余残差
    • 发现规则:好天气(>4) → +0.3元
    • 最终预测变得更为精准
  4. 最终预测
    • 综合所有树的预测结果
    • 例如第2天预测值 = 11 + 3.5 + 0.3 = 14.8元(接近实际15元)

💡 核心特点

  1. 残差学习:每棵树都试图修正前一棵树的错误,像不断改进的草稿
  2. 可调参数
    • learning_rate:控制每棵树的贡献(小步慢走更稳健)
    • n_estimators:树的数量(太多可能过拟合)
    • max_depth:每棵树的复杂度(通常3-5层足够)
  3. 适用广泛
    • 回归问题(预测房价)
    • 分类问题(判断邮件是否垃圾邮件)
    • 排序问题(搜索结果的排序)

记住:梯度提升树就像一群互相帮助的学生,每个新学生都特别关注班上做错题的同学,最终全班成绩越来越好!

相关文章:

  • FreeRTOS任务调度过程vTaskStartScheduler()任务设计和划分
  • 推客系统小程序开发:告别低效推广,开启精准获客新时代
  • 本地windows服务器部署私有云网盘Nextcloud并无公网IP实现外部访问
  • go语言学习 第9章:映射(Map)
  • 数论总结,(模版与题解)
  • csrf攻击学习
  • PL0语法,分析器实现!
  • AIGC行业发展演进:从技术萌芽到智能革命
  • 0基础破解Typora,使用正版已激活Typora
  • 将数据库表导出为C#实体对象
  • Docke启动Ktransformers部署Qwen3MOE模型实战与性能测试
  • AI+预测3D新模型百十个定位预测+胆码预测+去和尾2025年6月7日第101弹
  • 快速上手shell脚本运行流程控制
  • 1-2 Linux-虚拟机(2025.6.7学习篇- win版本)
  • 投屏技术深度解析:从原理到成功率优化实战·优雅草卓伊凡
  • Java Map完全指南:从基础到高级应用
  • 【LRU】 (最近最少使用)
  • 绘制饼图详细过程
  • 60天python训练计划----day46 and day47
  • 利用qcustomplot绘制曲线图
  • wordpress网站内容/品牌整合营销推广
  • 制作图网官网/搜索引擎优化是什么意思
  • 班组安全建设 网站/关键词指数批量查询
  • 网站费用标准/找百度
  • 如何做好外贸网络营销/太原seo管理
  • 江门市网站建设 熊掌号/网站怎么弄