当前位置: 首页 > news >正文

【机器学习基础】机器学习入门核心算法:XGBoost 和 LightGBM

在这里插入图片描述

机器学习入门核心算法:XGBoost 和 LightGBM

      • 一、算法逻辑
        • XGBoost (eXtreme Gradient Boosting)
        • LightGBM (Light Gradient Boosting Machine)
      • 二、算法原理与数学推导
        • 目标函数(二者通用)
        • 二阶泰勒展开:
        • XGBoost 分裂点增益计算:
        • LightGBM 直方图加速:
      • 三、模型评估
        • 常用评估指标:
        • 过拟合控制:
      • 四、应用案例
        • XGBoost 典型场景:
        • LightGBM 典型场景:
      • 五、面试题及答案
        • 常见问题:
      • 六、相关论文
      • 七、优缺点对比
      • 总结

一、算法逻辑

XGBoost (eXtreme Gradient Boosting)
  • 核心思想
    基于梯度提升框架(Gradient Boosting),通过迭代添加弱学习器(CART树)优化损失函数,支持正则化防止过拟合。
  • 关键优化
    • 预排序(Pre-sorted):对特征值预先排序并存储为块结构,加速分裂点查找。
    • 加权分位数草图(Weighted Quantile Sketch):近似算法高效生成候选分裂点。
LightGBM (Light Gradient Boosting Machine)
  • 核心思想
    针对XGBoost计算效率瓶颈改进,核心是 直方图算法(Histogram-based)生长策略优化
  • 关键创新
    • Gradient-based One-Side Sampling (GOSS):保留大梯度样本,随机采样小梯度样本。
    • Exclusive Feature Bundling (EFB):互斥特征捆绑,减少特征维度。
    • Leaf-wise 生长策略:选择增益最大叶子分裂,提升精度但可能加深树深。

二、算法原理与数学推导

目标函数(二者通用)

t t t 次迭代的目标函数:
O b j ( t ) = ∑ i = 1 n L ( y i , y ^ i ( t − 1 ) + f t ( x i ) ) + Ω ( f t ) Obj^{(t)} = \sum_{i=1}^{n} L(y_i, \hat{y}_i^{(t-1)} + f_t(x_i)) + \Omega(f_t) Obj(t)=i=1nL(yi,y^i(t1)+ft(xi))+Ω(ft)
其中正则项 Ω ( f t ) = γ T + 1 2 λ ∥ w ∥ 2 \Omega(f_t) = \gamma T + \frac{1}{2}\lambda \|w\|^2 Ω(ft)=γT+21λw2 T T T为叶子数, w w w为叶子权重)。

二阶泰勒展开:

O b j ( t ) ≈ ∑ i = 1 n [ L ( y i , y ^ ( t − 1 ) ) + g i f t ( x i ) + 1 2 h i f t 2 ( x i ) ] + Ω ( f t ) Obj^{(t)} \approx \sum_{i=1}^{n} \left[ L(y_i, \hat{y}^{(t-1)}) + g_i f_t(x_i) + \frac{1}{2} h_i f_t^2(x_i) \right] + \Omega(f_t) Obj(t)i=1n[L(yi,y^(t1))+gift(xi)+21hift2(xi)]+Ω(ft)
其中 g i = ∂ y ^ ( t − 1 ) L ( y i , y ^ ( t − 1 ) ) g_i = \partial_{\hat{y}^{(t-1)}} L(y_i, \hat{y}^{(t-1)}) gi=y^(t1)L(yi,y^(t1)), h i = ∂ y ^ ( t − 1 ) 2 L ( y i , y ^ ( t − 1 ) ) h_i = \partial_{\hat{y}^{(t-1)}}^2 L(y_i, \hat{y}^{(t-1)}) hi=y^(t1)2L(yi,y^(t1))

XGBoost 分裂点增益计算:

G a i n = 1 2 [ ( ∑ i ∈ I L g i ) 2 ∑ i ∈ I L h i + λ + ( ∑ i ∈ I R g i ) 2 ∑ i ∈ I R h i + λ − ( ∑ i ∈ I g i ) 2 ∑ i ∈ I h i + λ ] − γ Gain = \frac{1}{2} \left[ \frac{(\sum_{i \in I_L} g_i)^2}{\sum_{i \in I_L} h_i + \lambda} + \frac{(\sum_{i \in I_R} g_i)^2}{\sum_{i \in I_R} h_i + \lambda} - \frac{(\sum_{i \in I} g_i)^2}{\sum_{i \in I} h_i + \lambda} \right] - \gamma Gain=21[iILhi+λ(iILgi)2+iIRhi+λ(iIRgi)2iIhi+λ(iIgi)2]γ
I L , I R I_L, I_R IL,IR 为分裂后左右子节点样本集。

LightGBM 直方图加速:
  • 将连续特征离散化为 k k k 个桶(默认256),生成直方图。
  • 分裂时遍历直方图桶,计算增益:
    G a i n = max ⁡ j ∈ [ 1 , k ] ( ( ∑ i ∈ B l e f t j g i ) 2 ∑ i ∈ B l e f t j h i + λ + ( ∑ i ∈ B r i g h t j g i ) 2 ∑ i ∈ B r i g h t j h i + λ ) Gain = \max_{j \in [1,k]} \left( \frac{(\sum_{i \in B_{left}^j} g_i)^2}{\sum_{i \in B_{left}^j} h_i + \lambda} + \frac{(\sum_{i \in B_{right}^j} g_i)^2}{\sum_{i \in B_{right}^j} h_i + \lambda} \right) Gain=j[1,k]max(iBleftjhi+λ(iBleftjgi)2+iBrightjhi+λ(iBrightjgi)2)
    其中 B l e f t j B_{left}^j Bleftj B r i g h t j B_{right}^j Brightj 为按桶 j j j 分裂的样本子集。

三、模型评估

常用评估指标:
任务类型指标
分类AUC, F1-Score, 准确率
回归RMSE, MAE, R-squared
排序NDCG, MAP
过拟合控制:
  • XGBoostgamma(分裂阈值)、lambda(L2正则)、subsample(样本采样)。
  • LightGBMmin_data_in_leaffeature_fraction(特征采样)、lambda_l1/l2

四、应用案例

XGBoost 典型场景:
  1. Kaggle竞赛:2015-2016年多数表格数据竞赛冠军方案。
  2. 金融风控:预测贷款违约概率(如Lending Club数据集)。
LightGBM 典型场景:
  1. 大规模数据:腾讯广告点击率预测(十亿级样本)。
  2. 高维特征:推荐系统特征工程(EFB减少特征维度)。

五、面试题及答案

常见问题:
  1. Q: XGBoost 为什么用二阶导数?
    A: 二阶导提供损失函数的曲率信息,比一阶导更精准定位最优解,加速收敛。

  2. Q: LightGBM 的 Leaf-wise 为什么更快但可能过拟合?
    A: Leaf-wise 减少不必要的分裂(对比 Level-wise),但树深度可能更大,需通过 max_depthmin_data_in_leaf 约束。

  3. Q: 直方图算法的缺点?
    A: 离散化引入误差,桶数量少时精度下降(精度与效率权衡)。


六、相关论文

  1. XGBoost
    Chen & Guestrin, 2016. “XGBoost: A Scalable Tree Boosting System”
    Key: 分布式加权分位数草图、稀疏感知算法。

  2. LightGBM
    Ke et al., 2017. “LightGBM: A Highly Efficient Gradient Boosting Decision Tree”
    Key: GOSS 样本采样、EFB 特征捆绑、直方图优化。


七、优缺点对比

算法优点缺点
XGBoost1. 精度高,正则化强;
2. 支持自定义损失函数;
3. 树结构可解释性好。
1. 内存消耗大(预排序);
2. 训练速度较慢。
LightGBM1. 训练速度快3~5倍;
2. 内存占用低;
3. 支持大规模数据并行。
1. 小数据集易过拟合;
2. 离散化可能损失精度。

总结

  • XGBoost:精度优先,适合中小规模数据、需强正则化的场景。
  • LightGBM:效率优先,适合大规模数据、高维特征、实时性要求高的场景。
    两者均属于GBDT优化框架,选择需权衡数据规模、特征维度与精度要求。

相关文章:

  • etcd详解
  • 11.21 LangGraph多轮对话系统实战:三步构建高效信息整理引擎,效率提升300%!
  • Linux笔记---线程
  • 设计模式——面向对象设计六大原则
  • git 之 stash
  • 从gitee仓库中恢复IDEA项目某一版本
  • 基于图神经网络的自然语言处理:融合LangGraph与大型概念模型的情感分析实践
  • langchain学习 01
  • [网页五子棋][对战模块]实现游戏房间页面,服务器开发(创建落子请求/响应对象)
  • bert扩充或者缩小词表
  • 【NLP 78、手搓Transformer模型结构及实战】
  • 中文NLP with fastai - Fastai Part4
  • G25-05-31Rust开源项目日报 Top10
  • 基于热力学熵增原理的EM-GAM
  • Baklib企业CMS全流程管控与智能协作
  • 尚硅谷redis7 99 springboot整合redis之连接集群
  • 知识管理五强对比:Baklib高效突围
  • Python简易音乐播放器开发教程
  • LeetCode 算 法 实 战 - - - 移 除 链 表 元 素、反 转 链 表
  • 双目相机深度的误差分析(基线长度和相机焦距的选择)
  • php做的网站源代码在哪里/百度移动权重
  • eclipse做网站代码/如何百度推广
  • 定制旅游网站建设成都/google seo怎么优化
  • 百度不收录我的网站/全球搜效果怎么样
  • 成都建工官网/sem优化师是做什么的
  • 广州网站推广/怎么制作网址