当前位置: 首页 > news >正文

INT305 Machine Learning 机器学习 Pt.8 Bagging 和 Boosting

文章目录

  • 1. Bagging
    • 1.1 核心思想
    • 1.2 二元分类
    • 1.3 相关性的影响
    • 1.4 随机森林(Random Forest)
    • 1.5 小结
  • 2. Boosting
    • 2.1 AdaBoost 算法
      • 2.1.1 弱学习器(Weak Learner)
        • 2.1.1.1 决策桩(Decision Stumps)
      • 2.1.2 AdaBoost 算法的具体步骤
        • 2.1.2.1 AdaBoost 算法中权重调整
      • 2.1.3 AdaBoost算法的示例
      • 2.1.4 最小化训练误差
      • 2.1.5 AdaBoost 算法的泛化误差(generalization error)
      • 2.1.6 作为拟合加性模型(Additive Models)
        • 2.1.6.1 指数损失函数
      • 2.1.7 AdaBoost 算法小结
    • 2.2 小结
  • 3. 集成学习

1. Bagging

我们上一章说到偏差方差分解。
下图用飞镖的比喻来形象地解释了偏差(Bias)和方差(Variance)对模型预测性能的影响。
在这里插入图片描述
四个飞镖靶,每个靶上都有不同分布的飞镖点,代表模型在不同情况下的预测结果。
左上角(低偏差,低方差):飞镖点集中在靶心附近,表示模型预测准确且稳定。
右上角(低偏差,高方差):飞镖点分布分散但都靠近靶心,表示模型预测稳定但不够准确。
左下角(高偏差,低方差):飞镖点集中在偏离靶心的位置,表示模型预测不准确但稳定。
右下角(高偏差,高方差):飞镖点分散且偏离靶心,表示模型预测既不准确也不稳定。

我们现在讨论如何优化偏差方差。
我们可以训练多个模型,每个模型给出一个预测值YiY_iYi,然后把它们的预测结果取平均,得到最终预测yˉ=1m∑i=1mYi\bar{y} = \frac{1}{m}\sum_{i=1}^{m} Y_iyˉ=m1i=1mYi
这对我们模型的“期望损失”三项(Bayes误差、偏差、方差)有什么影响?
Bayes误差(不可约误差)不变,因为这是数据本身的噪声,我们做什么模型都改不了。

偏差不变,因为每个模型的期望预测值是一样的,平均之后期望也没变。
E[yˉ]=E⁣[1m∑i=1mYi]=1m∑i=1mE[Yi]\mathbb{E}[\bar{y}] = \mathbb{E}\!\left[\frac{1}{m}\sum_{i=1}^{m} Y_i\right] = \frac{1}{m}\sum_{i=1}^{m}\mathbb{E}[Y_i]E[yˉ]=E[m1i=1mYi]=m1i=1mE[Yi]
换句话说,Bagging 不会让一个“错的模型”变成对的,它只是把多个“同样偏”的模型平均一下。

方差减少了,因为我们在对多个独立同分布的预测结果做平均。
Var(yˉ)=Var⁣(1m∑i=1mYi)=1m2∑i=1mVar(Yi)=1mVar(Yi)\mathrm{Var}(\bar{y}) = \mathrm{Var}\!\left(\frac{1}{m}\sum_{i=1}^{m} Y_i\right) = \frac{1}{m^2}\sum_{i=1}^{m}\mathrm{Var}(Y_i) = \frac{1}{m}\mathrm{Var}(Y_i)Var(yˉ)=Var(m1i=1mYi)=m21i=1mVar(Yi)=m1Var(Yi)
平均独立随机变量会让方差按1/m1/m1/m的比例下降。

1.1 核心思想

在实际中,数据分布psamplep_{sample}psample往往是有限的或采样成本很高,所以每次都从真实分布中独立采样新数据集来训练模型是非常浪费数据的。
那为什么不只用一个数据集,然后通过有放回地重复采样来“模拟”多个数据集呢?
这就是 Bagging(Bootstrap Aggregating) 的核心思想。

你有一个大小为nnn的训练集D。
从这个数据集中有放回地随机采样nnn个样本,生成一个新的数据集(也叫 bootstrap 样本)。
重复这个过程mmm次,得到mmm个“新”数据集。
在每个数据集上训练一个模型,最后平均(或投票)它们的预测结果。

Bootstrap 是统计学中最重要的思想之一。
当数据量nnn越来越大时,从原始数据集中有放回采样得到的分布PDP_DPD会越来越接近真实的数据分布PsampleP_{sample}Psample

下图展示了一个n=7n=7n=7m=3m=3m=3的例子。
在这里插入图片描述

从同一份数据有放回地抽取7条样本,生成 3 份彼此不同的‘新’训练集,用来训练 3 个模型,再平均/投票。

在这里插入图片描述
我们用这 3 组训练集分别训练了 3 个模型,我们把同一条查询样本 x 喂给每个模型 , 得到 3 个预测值,取平均(回归)或投票(分类)作为最终输出。

Bagging 不改变单个模型的偏差(bias),但它会“偷偷”扩大模型的假设空间,使得最终集成出来的预测函数,可能不再是原来单个模型能表示的那一类函数。
下面给出例子。
输入xxx[−3,3][-3, 3][3,3]均匀分布,目标ttt服从标准正态噪声。
假设空间只是一条斜率受限的直线(www被锁在[−1,1][-1, 1][1,1])。
每次从真实分布采样一个数据集,用线性回归拟合出一条wxwxwx,斜率www会随数据波动而在[−1,1][-1, 1][1,1]内变化。
在这里插入图片描述

把 1000 条这样的直线逐点取平均(即 Bagging 的期望预测)。
结果这条“平均直线”不再是直线。它可能带曲率,跳出了原来“只能是一条wxwxwx”的集合HHH
在这里插入图片描述

这个现象在用决策树、神经网络等非线性分类器时更明显:单棵决策树只能划轴平行线,平均后却可得到任意分段边界。

1.2 二元分类

在二分类任务里,无论基分类器输出的是“概率”还是“硬投票(0/1)”,Bagging 都可以把它们的预测先平均,再统一做 0.5 阈值判断;这种“平均后再决定”的策略,往往比单个模型的准确度更高。
每个基分类器给出属于类别1的概率zi∈[0,1]z_i \in [0,1]zi[0,1]
然后我们把这些概率取平均zbagged=1m∑i=1mziz_{\text{bagged}} = \frac{1}{m}\sum_{i=1}^{m} z_izbagged=m1i=1mzi
如果其概率超过0.5则属于类别1,
ybagged=I(zbagged>0.5)y_{\text{bagged}} = \mathbb{I}(z_{\text{bagged}} > 0.5)ybagged=I(zbagged>0.5)

如果我们的基分类器的结果只有0或1,即yi∈{0,1}y_i \in \{0,1\}yi{0,1}
同样可以先平均这些 0/1,再判断。
yˉ=1m∑i=1myi\bar{y} = \frac{1}{m}\sum_{i=1}^{m} y_iyˉ=m1i=1myi
ybagged=I(yˉ>0.5)y_{\text{bagged}} = \mathbb{I}(\bar{y} > 0.5)ybagged=I(yˉ>0.5)
这样“平均后再决定”的集成模型,往往比单个模型更强。

1.3 相关性的影响

如果mmm个模型的预测完全独立,方差会按1/m1/m1/m线性下降。
但Bagging里每个模型用的数据都来自同一份原始训练集D,只是有放回地重采样,因此训练出的模型彼此正相关(ρ>0ρ > 0ρ>0)。
相关性越高,平均带来的方差缩减收益越小。
Var⁡⁣(1m∑i=1mYi)=σ2m(1−ρ)+σ2ρ\operatorname{Var}\!\left(\frac{1}{m}\sum_{i=1}^{m}Y_{i}\right) = \frac{\sigma^{2}}{m}(1 - \rho) + \sigma^{2}\rhoVar(m1i=1mYi)=mσ2(1ρ)+σ2ρ
其中σ2\sigma^2σ2:单个模型预测的方差
ρ\rhoρ:模型间预测结果的相关系数
mmm:基模型数量

ρ=0ρ = 0ρ=0(完全独立)⇒ 方差 = σ2/mσ²/mσ2/m,最大降幅。
ρ=1ρ = 1ρ=1(完全相关)⇒ 方差 = σ2σ²σ2,毫无降幅(跟用一个模型一样)。
实际0<ρ<10 < ρ < 10<ρ<1,所以方差只能部分下降,下降比例由ρρρ决定。

1.4 随机森林(Random Forest)

随机森林 = 把决策树做 Bagging,再加一个去相关(decorrelate)的小技巧。
每次分裂节点时,先从全部特征里随机抽𝑑𝑑d个候选特征,然后只在这𝑑𝑑d个里选最优划分。
这个𝑑𝑑d是超参,常用默认值:
分类:𝑑=√p𝑑 = √pd=p
回归:𝑑=p/3𝑑 = p/3d=p/3ppp为总特征数)
作用:
让各棵树“长得不一样”,降低树间相关性ρρρ,从而把 Bagging 的方差缩减效果再放大。

随机森林大概是最强黑盒算法——几乎不用调参就能跑得不错。也是 Kaggle 比赛里最常用的算法之一(尤其是结构化表格数据)。

1.5 小结

Bagging 通过平均预测结果来减少过拟合。
通过集成多个模型,即使这些模型本身已经表现不错,也可以进一步提升性能。

但是在平方误差的情况下不减少偏差。 Bagging 主要通过减少方差来提高模型的泛化能力,但对模型的偏差影响不大。
分类器之间仍然存在相关性。 由于所有模型都是基于同一数据集的不同子集训练的,它们之间可能存在一定的相关性,这限制了方差的进一步减少。
随机森林解决方案:增加更多的随机性。 随机森林通过在每个决策节点随机选择特征来进一步减少模型之间的相关性,从而提高集成的效果。
简单的混合(所有成员权重相等)。 Bagging 中的模型权重是相等的,这可能不是最优的,因为不同模型的性能可能差异很大。
如果成员非常不同(例如,不同的算法,不同的数据源等),我们通常可以通过使用有原则的加权集成方法获得更好的结果。 当集成的模型差异较大时,根据模型的性能给予不同的权重可能会更有效。
接下来要讲的Boosting可以看作是一种加权集成方法,它强烈地去相关集成成员。 Boosting 通过迭代地训练模型,每个新模型都试图纠正前一个模型的错误,从而实现模型之间的去相关,并根据模型的表现给予不同的权重。

2. Boosting

顺序训练分类器,每次训练时专注于前一个分类器分类错误的样本,通过这种方式逐步提升整体模型的性能。
由于每个模型都专注于不同的错误样本,它们的预测结果之间的相关性降低,这有助于提高集成模型的泛化能力。
为了专注于特定样本,Boosting 使用加权的训练集。每个样本在训练集中的权重会根据其被前一个模型分类的正确与否进行调整。被错误分类的样本权重会增加,从而在后续模型中得到更多的关注。

传统的错误分类率1N∑n=1NI[h(x(n))≠t(n)]\frac{1}{N}\sum_{n=1}^{N} \mathbb{I}[h(x^{(n)}) \neq t^{(n)}]N1n=1NI[h(x(n))=t(n)]将每个训练样本视为等权重。这里,I[h(x(n))≠t(n)]\mathbb{I}[h(x^{(n)}) \neq t^{(n)}]I[h(x(n))=t(n)]是指示函数,当模型hhh对样本x(n)x^{(n)}x(n)预测不等于真实标签时,其值为1,否则为0。
我们可以为不同的样本分配不同的成本(或权重)来学习分类器。
分类器会“更努力”地学习那些具有更高成本的样本。
于是我们将原来的成本函数∑n=1Nw(n)I[h(x(n))≠t(n)]\sum_{n=1}^{N} w^{(n)} \mathbb{I}[h(x^{(n)}) \neq t^{(n)}]n=1Nw(n)I[h(x(n))=t(n)]修改为∑n=1Nw(n)=1\sum_{n=1}^{N} w^{(n)} = 1n=1Nw(n)=1,这里,w(n)w^{(n)}w(n)是样本nnn的权重。
通常要求每个权重w(n)>0w^{(n)}>0w(n)>0 且所有权重之和为111

2.1 AdaBoost 算法

AdaBoost 的关键步骤如下:

  1. 在每次迭代中,通过给被错误分类的样本(即数据点)分配更大的权重来重新加权训练样本。
  2. 基于重新加权的样本训练一个新的基础分类器。
  3. 将其以适当的权重添加到分类器集成中。
  4. 多次重复这个过程。

基础分类器的要求:

  • 需要最小化加权误差。
  • 集成可能会变得非常大,因此基础分类器必须快速。事实证明,任何所谓的弱学习器/分类器都可以。

单独来看,弱学习器可能具有高偏差(欠拟合)。通过让每个分类器专注于之前的错误,AdaBoost 减少了偏差。

2.1.1 弱学习器(Weak Learner)

弱学习器是一种学习算法,它输出的假设(例如分类器)的性能略好于随机猜测。例如,在二分类问题中,它以0.51的概率正确预测标签。
我们对计算效率高的弱学习器感兴趣。
例如决策树是一种常见的弱学习器,因为它可以快速地进行训练和预测。
更简单的是决策桩(Decision Stump),它是一种只有一个分裂的决策树。

正式定义:弱可学习性(weak learnability)的正式定义涉及到一些量化指标,例如“对于数据的任何分布”,并且其保证仅以概率形式成立。
这意味着在理论上,弱学习器能够在一定的概率下,对于任何数据分布,找到一个略好于随机猜测的分类器。

2.1.1.1 决策桩(Decision Stumps)

决策桩是最简单的决策树,由水平和垂直的半空间组成。
如下图所示。
在这里插入图片描述
左边是垂直半空间(Vertical half spaces):基于特征值的垂直分割,例如x2≤2x_2≤2x22x2>2x_2>2x2>2
右边是水平半空间(Horizontal half spaces):基于特征值的水平分割,例如x1≤2x_1≤2x12x1>2x_1>2x1>2

单个弱分类器无法使训练误差变得很小。
但如果能保证它的表现略好于随机猜测,即分类器hhh根据给定的权重w=w1,…,wN\mathbf{w} = w_1, \ldots, w_Nw=w1,,wN的加权误差最多是12−γ\frac{1}{2} - \gamma21γ(其中γ>0\gamma > 0γ>0),那么使用AdaBoost结合这些弱分类器可以给我们一个通用函数逼近器。
上次我们使用信息增益作为分裂标准。在使用AdaBoost的决策桩时,我们通常使用“GINI不纯度”,这(大致上)选择直接最小化误差的分裂。
GINI不纯度是一种衡量数据集不纯度的方法,它倾向于选择那些能够最大程度减少分类错误的分裂。

我们回顾之前学习的知识。
输入数据集DN\mathcal{D}_NDN包含NNN个样本,每个样本由特征向量x(n)\mathbf{x}^{(n)}x(n)和对应的标签t(n)t^{(n)}t(n)组成。这里标签的取值是 -1 或 +1 与之前的 0,1 不同。但这只是为了方便记号,两者在本质上是等价的。
DN={x(n),t(n)}n=1Nwhere t(n)∈{−1,+1}\mathcal{D}_N = \{\mathbf{x}^{(n)}, t^{(n)}\}_{n=1}^N \text{ where } t^{(n)} \in \{-1, +1\}DN={x(n),t(n)}n=1N where t(n){1,+1}
分类器或假设hhh是一个函数,它将输入特征向量xxx映射到输出标签 −1 或 +1。
h:x→{−1,+1}h: \mathbf{x} \rightarrow \{-1, +1\}h:x{1,+1}
0-1 损失函数用于衡量分类器的预测结果与真实标签之间的差异。
I[h(x(n))≠t(n)]=12(1−h(x(n))⋅t(n))\mathbb{I}[h(\mathbf{x}^{(n)}) \neq t^{(n)}] = \frac{1}{2}(1 - h(\mathbf{x}^{(n)}) \cdot t^{(n)})I[h(x(n))=t(n)]=21(1h(x(n))t(n))
其中I[h(x(n))≠t(n)]\mathbb{I}[h(\mathbf{x}^{(n)}) \neq t^{(n)}]I[h(x(n))=t(n)]是指示函数,当预测结果与真实标签不同时,其值为 1,否则为 0。
等号后面的式子也可以用来计算 0-1 损失,其中h(x(n))⋅t(n))h(\mathbf{x}^{(n)}) \cdot t^{(n)})h(x(n))t(n))是预测标签与真实标签的点积。

2.1.2 AdaBoost 算法的具体步骤

输入:输入数据集DN\mathcal{D}_NDN包含NNN个样本,每个样本由特征向量x(n)\mathbf{x}^{(n)}x(n)和对应的标签t(n)t^{(n)}t(n)组成。
DN={x(n),t(n)}n=1Nwhere t(n)∈{−1,+1}\mathcal{D}_N = \{\mathbf{x}^{(n)}, t^{(n)}\}_{n=1}^N \text{ where } t^{(n)} \in \{-1, +1\}DN={x(n),t(n)}n=1N where t(n){1,+1}
一个返回分类器hhh的分类过程,例如最佳决策桩,从一个分类器集合HHH中选择,例如所有可能的决策桩。
以及迭代次数TTT

输出:最终的分类器。

步骤:

  1. 初始化样本权重:
    w(n)=1Nw^{(n)} = \frac{1}{N} \quadw(n)=N1对于所有n=1,…,Nn=1,\ldots,Nn=1,,N

  2. 对于t=1,…,Tt=1,\ldots,Tt=1,,T

  • 使用加权数据训练一个分类器hth_ththt←arg⁡min⁡h∈H∑n=1Nw(n)I{h(x(n))≠t(n)}h_t \leftarrow \arg\min_{h \in \mathcal{H}} \sum_{n=1}^{N} w^{(n)} \mathbb{I}\{h(\mathbf{x}^{(n)}) \neq t^{(n)}\}htargminhHn=1Nw(n)I{h(x(n))=t(n)}

  • 计算加权错误errt\text{err}_terrterrt=∑n=1Nw(n)I{ht(x(n))≠t(n)}∑n=1Nw(n)\text{err}_t = \frac{\sum_{n=1}^{N} w^{(n)} \mathbb{I}\{h_t(\mathbf{x}^{(n)}) \neq t^{(n)}\}}{\sum_{n=1}^{N} w^{(n)}}errt=n=1Nw(n)n=1Nw(n)I{ht(x(n))=t(n)}

  • 计算分类器系数αt\alpha_tαtαt=12log⁡1−errterrt(\alpha_t = \frac{1}{2} \log \frac{1 - \text{err}_t}{\text{err}_t} \quad (αt=21logerrt1errt(其中errt∈(0,∞))\text{err}_t \in (0, \infty))errt(0,))

  • 更新数据权重 w(n)w^{(n)}w(n)w(n)←w(n)exp⁡(−αtt(n)ht(x(n)))w^{(n)} \leftarrow w^{(n)} \exp(-\alpha_t t^{(n)} h_t(\mathbf{x}^{(n)})) \quadw(n)w(n)exp(αtt(n)ht(x(n)))等价于w(n)exp⁡(2αtI{ht(x(n))≠t(n)}))w^{(n)} \exp(2\alpha_t \mathbb{I}\{h_t(\mathbf{x}^{(n)}) \neq t^{(n)}\}))w(n)exp(2αtI{ht(x(n))=t(n)}))

  1. 返回最终的分类器H(x)H(\mathbf{x})H(x)H(x)=sign(∑t=1Tαtht(x))H(\mathbf{x}) = \text{sign}\left(\sum_{t=1}^{T} \alpha_t h_t(\mathbf{x})\right)H(x)=sign(t=1Tαtht(x)),它是所有弱分类器的加权和的符号函数。
2.1.2.1 AdaBoost 算法中权重调整

我们最后最终分类器H(x)H(\mathbf{x})H(x)H(x)=sign(∑t=1Tαtht(x))H(\mathbf{x}) = \text{sign}\left(\sum_{t=1}^{T} \alpha_t h_t(\mathbf{x})\right)H(x)=sign(t=1Tαtht(x))是所有弱分类器ht(x)h_t(\mathbf{x})ht(x)的加权和的符号函数,其中αt\alpha_tαt是第ttt个弱分类器的系数。
这个系数αt=12log⁡1−errterrt\alpha_t = \frac{1}{2} \log \frac{1 - \text{err}_t}{\text{err}_t} \quadαt=21logerrt1errt由第ttt个弱分类器的错误率errt\text{err}_terrt决定。
在这里插入图片描述

  • errt\text{err}_terrt接近 0 时,αt\alpha_tαt较大,这意味着分类器在训练数据上的错误率很低,因此它在最终分类器中的影响较大。
  • errt\text{err}_terrt接近 0.5 时,αt\alpha_tαt较小,这意味着分类器在训练数据上的错误率较高,因此它在最终分类器中的影响较小。

同样样本权重w(n)w^{(n)}w(n)根据第ttt个弱分类器对样本x(n)\mathbf{x}^{(n)}x(n)的分类结果进行更新:

w(n)←w(n)exp⁡(2αtI{ht(x(n))≠t(n)})w^{(n)} \leftarrow w^{(n)} \exp(2\alpha_t \mathbb{I}\{h_t(\mathbf{x}^{(n)}) \neq t^{(n)}\})w(n)w(n)exp(2αtI{ht(x(n))=t(n)})

  • 如果ht(x(n))≠t(n)h_t(\mathbf{x}^{(n)}) \neq t^{(n)}ht(x(n))=t(n)(即样本被错误分类),则权重增加,这意味着在后续迭代中,这个样本会被赋予更多的关注。
  • 如果ht(x(n))=t(n)h_t(\mathbf{x}^{(n)}) = t^{(n)}ht(x(n))=t(n)(即样本被正确分类),则权重减少,这意味着在后续迭代中,这个样本会被赋予较少的关注。

2.1.3 AdaBoost算法的示例

在这里插入图片描述
这是用于训练的数据集,标记为D1D_1D1

第一轮迭代:
在这里插入图片描述
左图显示了第一个弱分类器h1h_1h1的决策边界,它将数据分为两个区域(蓝色和粉色),每个区域内的样本被分类为同一类别。
右图显示了根据第一个弱分类器h1h_1h1的错误分类结果重新加权后的数据集D2D_2D2,其中被错误分类的样本(位于决策边界另一侧的样本)在后续迭代中将被赋予更高的权重。
第一个弱分类器的错误率为ϵ1=0.30\epsilon_1 = 0.30ϵ1=0.30
第一个弱分类器的权重为α1=12log⁡1−ϵ1ϵ1=0.42\alpha_1 = \frac{1}{2} \log \frac{1 - \epsilon_1}{\epsilon_1}=0.42α1=21logϵ11ϵ1=0.42

我们现在一步步执行:

  • 权重初始化w=(110,…,110)\mathbf{w} = \left(\frac{1}{10}, \ldots, \frac{1}{10}\right)w=(101,,101),表示所有样本初始权重相等。

  • 训练分类器:使用初始权重w\mathbf{w}w训练第一个弱分类器h1h_1h1

  • 计算错误率:err1=∑i=110wiI{h1(x(i))≠t(i)}∑i=110wi=310\text{err}_1 = \frac{\sum_{i=1}^{10} w_i \mathbb{I}\{h_1(\mathbf{x}^{(i)}) \neq t^{(i)}\}}{\sum_{i=1}^{10} w_i} = \frac{3}{10}err1=i=110wii=110wiI{h1(x(i))=t(i)}=103,表示有 3 个样本被错误分类。

  • 计算分类器系数:α1=12log⁡1−err1err1=12log⁡10.3−1≈0.42\alpha_1 = \frac{1}{2} \log \frac{1 - \text{err}_1}{\text{err}_1} = \frac{1}{2} \log \frac{1}{0.3} - 1 \approx 0.42α1=21logerr11err1=21log0.3110.42

  • 最终分类器:H(x)=sign(α1h1(x))H(\mathbf{x}) = \text{sign}(\alpha_1 h_1(\mathbf{x}))H(x)=sign(α1h1(x)),最终分类器是第一个弱分类器的加权结果。

第二轮迭代:
在这里插入图片描述
左图显示了第二个弱分类器h2h_2h2的决策边界,它专注于第一轮中被错误分类的样本(蓝色区域)。
右图显示了根据第一个弱分类器h2h_2h2的错误分类结果重新加权后的数据集D3D_3D3,其中被错误分类的样本(位于决策边界另一侧的样本)在后续迭代中将被赋予更高的权重。
第二个弱分类器的错误率为 ϵ2=0.21\epsilon_2 = 0.21ϵ2=0.21
第二个弱分类器的权重为 α2=0.65\alpha_2 = 0.65α2=0.65

我们现在一步步执行:

  • 权重更新 w=updated weights\mathbf{w} = \text{updated weights}w=updated weights,所有样本权重根据第一轮的结果进行了更新。
  • 使用更新后的权重 w\mathbf{w}w 训练第二个弱分类器 h2h_2h2
  • 计算错误率:err2=∑i=110wiI{h2(x(i))≠t(i)}∑i=110wi=0.21\text{err}_2 = \frac{\sum_{i=1}^{10} w_i \mathbb{I}\{h_2(\mathbf{x}^{(i)}) \neq t^{(i)}\}}{\sum_{i=1}^{10} w_i} = 0.21err2=i=110wii=110wiI{h2(x(i))=t(i)}=0.21
  • 计算分类器系数:α2=12log⁡1−err2err2=12log⁡10.21≈0.66\alpha_2 = \frac{1}{2} \log \frac{1 - \text{err}_2}{\text{err}_2} = \frac{1}{2} \log \frac{1}{0.21} \approx 0.66α2=21logerr21err2=21log0.2110.66
  • 最终分类器:H(x)=sign(α1h1(x)+α2h2(x))H(\mathbf{x}) = \text{sign}(\alpha_1 h_1(\mathbf{x}) + \alpha_2 h_2(\mathbf{x}))H(x)=sign(α1h1(x)+α2h2(x)),最终分类器是前两个弱分类器的加权结果。

第三轮迭代:
在这里插入图片描述
上图显示了第三个弱分类器h3h_3h3的决策边界,它专注于第二轮中被错误分类的样本。
第三个弱分类器的错误率为 ϵ3=0.14\epsilon_3 = 0.14ϵ3=0.14
第三个弱分类器的权重为 α3=0.92\alpha_3 = 0.92α3=0.92
我们现在一步步执行:

  • 权重更新 w=updated weights\mathbf{w} = \text{updated weights}w=updated weights,所有样本权重根据第二轮的结果进行了更新。
  • 使用更新后的权重 w\mathbf{w}w 训练第三个弱分类器 h3h_3h3
  • 计算错误率:err3=∑i=110wiI{h3(x(i))≠t(i)}∑i=110wi=0.14\text{err}_3 = \frac{\sum_{i=1}^{10} w_i \mathbb{I}\{h_3(\mathbf{x}^{(i)}) \neq t^{(i)}\}}{\sum_{i=1}^{10} w_i} = 0.14err3=i=110wii=110wiI{h3(x(i))=t(i)}=0.14
  • 计算分类器系数:α3=12log⁡1−err3err3=12log⁡10.14≈0.91\alpha_3 = \frac{1}{2} \log \frac{1 - \text{err}_3}{\text{err}_3} = \frac{1}{2} \log \frac{1}{0.14} \approx 0.91α3=21logerr31err3=21log0.1410.91
  • 最终分类器:H(x)=sign(α1h1(x)+α2h2(x)+α3h3(x))H(\mathbf{x}) = \text{sign}(\alpha_1 h_1(\mathbf{x}) + \alpha_2 h_2(\mathbf{x}) + \alpha_3 h_3(\mathbf{x}))H(x)=sign(α1h1(x)+α2h2(x)+α3h3(x)),最终分类器是前三个弱分类器的加权结果。

所以我们得到最终的分类器如下图所示。
在这里插入图片描述
Hfinal=sign(α1h1(x)+α2h2(x)+α3h3(x))H_\text{final}= \text{sign}(\alpha_1 h_1(\mathbf{x}) + \alpha_2 h_2(\mathbf{x}) + \alpha_3 h_3(\mathbf{x}))Hfinal=sign(α1h1(x)+α2h2(x)+α3h3(x))

在这里插入图片描述

所以我们的步骤就是用弱分类器分类,然后计算错误率,然后根据错误率计算弱分类器的权重,再根据弱分类器的权重计算样本权重。最后将所有弱分类器加权和得到最终分类器。

下图又展现了一个例子。
在这里插入图片描述
每个图展示了在不同数量的弱分类器(mmm)训练完成后,最近一个弱分类器的决策边界(虚线黑色),以及集成分类器的决策边界(绿色)。
随着弱分类器数量的增加,集成分类器的决策边界变得更加复杂和精确,能够更好地捕捉数据中的模式。

2.1.4 最小化训练误差

下面的定理展示了 AdaBoost 算法的一个重要性质:在每次迭代中,如果每个弱学习器都比随机猜测好γγγ,那么最终集成模型的训练误差会以几何级数快速下降。这种快速的收敛性是 AdaBoost 算法的一个显著优点,使其在实践中非常有效。

定理:假设在 AdaBoost 的每次迭代中,WeakLearn 返回的假设(分类器)的错误率errt≤12−γ\text{err}_t \leq \frac{1}{2} - \gammaerrt21γ对于所有t=1,…,Tt=1,\ldots,Tt=1,,Tγ>0\gamma > 0γ>0。输出假设H(x)=sign(∑t=1Tαtht(x))H(\mathbf{x})=\text{sign}\left(\sum_{t=1}^{T} \alpha_t h_t(\mathbf{x})\right)H(x)=sign(t=1Tαtht(x))的训练误差最多为:
LN(H)=1N∑i=1NI{H(x(i))≠t(i)}≤exp⁡(−2γ2T)L_N(H) = \frac{1}{N} \sum_{i=1}^{N} \mathbb{I}\{H(\mathbf{x}^{(i)}) \neq t^{(i)}\} \leq \exp(-2\gamma^2 T)LN(H)=N1i=1NI{H(x(i))=t(i)}exp(2γ2T)
其中LN(H)L_N(H)LN(H)是输出假设HHH在训练集上的错误率。

这是在简化的假设下得出的,即每个弱学习器都比随机预测器好γγγ
这被称为几何级数收敛,它非常快。

2.1.5 AdaBoost 算法的泛化误差(generalization error)

AdaBoost 的训练误差(损失)收敛到零。那么HHH的测试误差呢?
换句话说,虽然 AdaBoost 的训练误差可以降到很低,甚至接近于零,但这是否意味着它在测试集上的表现也同样优秀?
随着我们添加更多的弱分类器,整体分类器HHH变得更加“复杂”。我们预计更复杂的分类器会过拟合。
如果运行 AdaBoost 足够长的时间,它实际上可能会过拟合。
在这里插入图片描述
图中展示了训练误差和测试误差随迭代次数(rounds)的变化趋势:
蓝色曲线表示训练误差,随着迭代次数的增加,训练误差逐渐降低,最终趋近于零。
红色曲线表示测试误差,开始时测试误差也降低,但在某个点之后开始上升,显示出过拟合的迹象。

有时候,即使训练误差已经降到零,测试误差仍然会继续下降。
在这里插入图片描述
图中展示了训练误差和测试误差随迭代次数(rounds)的变化趋势:
蓝色曲线表示训练误差,随着迭代次数的增加,训练误差迅速下降并趋近于零。
红色曲线表示测试误差,开始时测试误差也下降,但在训练误差降到零后,测试误差继续下降,然后趋于平稳。

在接下来的讨论中,我们将介绍一种不同的方法或理论框架来解释 AdaBoost 的工作原理,这将解答它如何在训练误差为零后仍然能够改善测试误差的原因。

2.1.6 作为拟合加性模型(Additive Models)

接下来,我们将 AdaBoost 解释为拟合加性模型的一种方式。
考虑一个假设类H\mathcal{H}H,其中每个hih_ihi映射到{−1,+1}\{-1, +1\}{1,+1},即hi∈Hh_i \in \mathcal{H}hiH。这些是“弱学习器”,在这种情况下,它们也被称为基(bases)。
一个包含mmm项的加性模型由下式给出:
Hm(x)=∑i=1mαihi(x)H_m(\mathbf{x}) = \sum_{i=1}^{m} \alpha_i h_i(\mathbf{x})Hm(x)=i=1mαihi(x),其中(α1,⋯,αm)∈Rm(\alpha_1, \cdots, \alpha_m) \in \mathbb{R}^m(α1,,αm)Rm
注意到我们正在取基分类器hi(x)h_i (x)hi(x)的线性组合,就像在提升中一样。 还要注意与我们在线性回归和神经网络中看到的特征映射(或基扩展)的联系。

加性模型(Additive Models)的分阶段训练方法是AdaBoost 算法背后的原理之一。
阶梯式训练(Stagewise Training)是一种贪心算法,用于拟合加性模型。
步骤如下:

  1. 初始化模型H0H_0H0为 0,即最开始的模型不包含任何分类器。
  2. m=1m = 1m=1迭代到TTT
  • 计算第mmm个假设HmH_mHm,即在前一个加性模型Hm−1H_{m-1}Hm1的基础上添加一个新的弱分类器hmh_mhm和对应的权重αm\alpha_mαm
    Hm=Hm−1+αmhmH_m = H_{m-1} + \alpha_m h_mHm=Hm1+αmhm
  • 找到使得损失函数L\mathcal{L}L最小的弱分类器hmh_mhm和权重αm\alpha_mαm。这里L\mathcal{L}L是损失函数,NNN是样本数量,t(i)t^{(i)}t(i)是第iii个样本的真实标签。
    (hm,αm)←arg⁡min⁡h∈H,α∑i=1NL(Hm−1(x(i))+αh(x(i)),t(i))(h_m, \alpha_m) \leftarrow \arg\min_{h \in \mathcal{H}, \alpha} \sum_{i=1}^{N} \mathcal{L} \left( H_{m-1}(\mathbf{x}^{(i)}) + \alpha h(\mathbf{x}^{(i)}), t^{(i)} \right)(hm,αm)argminhH,αi=1NL(Hm1(x(i))+αh(x(i)),t(i))
  • 将将找到的弱分类器hmh_mhm及其权重αm\alpha_mαm添加到加性模型中,更新模型为 Hm=Hm−1+αmhmH_m = H_{m-1} + \alpha_m h_mHm=Hm1+αmhm
2.1.6.1 指数损失函数

指数损失函数定义为LE(z,t)=exp⁡(−tz)\mathcal{L}_E(z, t) = \exp(-tz)LE(z,t)=exp(tz),其中zzz是模型预测值,ttt是真实标签。
下图展示了不同损失函数随预测值zzz的变化曲线:
在这里插入图片描述
zero-one(蓝色实线):0-1损失,常用于分类问题。
least squares(青色实线):最小二乘损失,常用于回归问题。
logistic + CE(红色虚线):逻辑回归损失加交叉熵损失,常用于二分类问题。
hinge(绿色实线):合页损失,AdaBoost中常用的损失函数。
exponential(橙色实线):指数损失,强调了对错误预测的惩罚随着预测错误的增大而指数增长。

所以指数损失函数在预测值与真实标签相差较大时,损失增长速度更快,这使得模型在训练时更加关注那些难以分类的样本。

我们现在详细看一下加性模型的分阶段训练是如何进行的。
指数损失函数定义为LE(z,t)=exp⁡(−tz)\mathcal{L}_E(z, t) = \exp(-tz)LE(z,t)=exp(tz),其中zzz是模型预测值,ttt是真实标签。
找到使得指数损失函数最小化的弱分类器hmh_mhm和权重αmα_mαm
(hm,αm)←arg⁡min⁡h∈H,α∑i=1Nexp⁡(−[Hm−1(x(i))+αh(x(i))]t(i))(h_m, \alpha_m) \leftarrow \arg\min_{h \in \mathcal{H}, \alpha} \sum_{i=1}^{N} \exp \left( - \left[ H_{m-1}(\mathbf{x}^{(i)}) + \alpha h(\mathbf{x}^{(i)}) \right] t^{(i)} \right)(hm,αm)argminhH,αi=1Nexp([Hm1(x(i))+αh(x(i))]t(i))
将损失函数展开为两部分的乘积。
=∑i=1Nexp⁡(−Hm−1(x(i))t(i))exp⁡(−αh(x(i))t(i))= \sum_{i=1}^{N} \exp \left( -H_{m-1}(\mathbf{x}^{(i)}) t^{(i)} \right) \exp \left( -\alpha h(\mathbf{x}^{(i)}) t^{(i)} \right)=i=1Nexp(Hm1(x(i))t(i))exp(αh(x(i))t(i))
进一步简化为样本权重wi(m)w_i^{(m)}wi(m)与指数项的乘积。
=∑i=1Nwi(m)exp⁡(−αh(x(i))t(i))= \sum_{i=1}^{N} w_i^{(m)} \exp \left( -\alpha h(\mathbf{x}^{(i)}) t^{(i)} \right)=i=1Nwi(m)exp(αh(x(i))t(i))
这里我们定义wi(m)≜exp⁡(−Hm−1(x(i))t(i))w_i^{(m)} \triangleq \exp \left( -H_{m-1}(\mathbf{x}^{(i)}) t^{(i)} \right)wi(m)exp(Hm1(x(i))t(i))不依赖于h,αh, \alphah,α

我们想要解决以下最小化问题:(hm,αm)←arg⁡min⁡h∈H,α∑i=1Nwi(m)exp⁡(−αh(x(i))t(n))(h_m, \alpha_m) \leftarrow \arg\min_{h \in \mathcal{H}, \alpha} \sum_{i=1}^{N} w_i^{(m)} \exp \left( -\alpha h(\mathbf{x}^{(i)}) t^{(n)} \right)(hm,αm)argminhH,αi=1Nwi(m)exp(αh(x(i))t(n))
这里,(hm,αm)(h_m, \alpha_m)(hm,αm)是第mmm个弱分类器和对应的权重,H\mathcal{H}H是弱分类器的集合,wi(m)w_i^{(m)}wi(m)是第mmm 轮迭代中第iii个样本的权重,α\alphaα是权重参数,h(x(i))h(\mathbf{x}^{(i)})h(x(i))是弱分类器对第iii个样本的预测,t(n)t^{(n)}t(n)是第iii个样本的真实标签。
前面我们推导过样本权重和指数损失的关系:
w(n)exp⁡(−αtht(x(n))t(n))∝w(n)exp⁡(2αtI{ht(x(n))≠t(n))w^{(n)} \exp \left( -\alpha_t h_t(\mathbf{x}^{(n)}) t^{(n)} \right) \propto w^{(n)} \exp \left( 2\alpha_t \mathbb{I}\{h_t(\mathbf{x}^{(n)}) \neq t^{(n)} \right)w(n)exp(αtht(x(n))t(n))w(n)exp(2αtI{ht(x(n))=t(n))
因此,对于hmh_mhm,上述最小化等价于:
hm←arg⁡min⁡h∈H∑i=1Nwi(m)exp⁡(2αtI{ht(x(n))≠t(n))h_m \leftarrow \arg\min_{h \in \mathcal{H}} \sum_{i=1}^{N} w_i^{(m)} \exp \left( 2\alpha_t \mathbb{I}\{h_t(\mathbf{x}^{(n)}) \neq t^{(n)} \right)hmargminhHi=1Nwi(m)exp(2αtI{ht(x(n))=t(n))
进一步简化为:
=arg⁡min⁡h∈H∑i=1Nwi(m)(exp⁡(2αtI{ht(x(n))≠t(n))−1)= \arg\min_{h \in \mathcal{H}} \sum_{i=1}^{N} w_i^{(m)} \left( \exp \left( 2\alpha_t \mathbb{I}\{h_t(\mathbf{x}^{(n)}) \neq t^{(n)} \right) - 1 \right) \quad=argminhHi=1Nwi(m)(exp(2αtI{ht(x(n))=t(n))1)
通过除以 exp⁡(2αt)−1\exp(2\alpha_t) - 1exp(2αt)1 得到:
=arg⁡min⁡h∈H∑i=1Nwi(m)I{ht(x(n))≠t(n)}= \arg\min_{h \in \mathcal{H}} \sum_{i=1}^{N} w_i^{(m)} \mathbb{I}\{h_t(\mathbf{x}^{(n)}) \neq t^{(n)} \}=argminhHi=1Nwi(m)I{ht(x(n))=t(n)}
这意味着hmh_mhm是加权 0/1 损失的最小化器。

现在我们已经获得了第mmm个弱分类器hmh_mhm,我们可以将其代入我们的指数损失目标函数并求解ama_mam
推导结果为αm=12log⁡(1−errmerrm)\alpha_m = \frac{1}{2} \log \left( \frac{1 - \text{err}_m}{\text{err}_m} \right)αm=21log(errm1errm)
其中errm\text{err}_merrm是加权分类错误率:
errm=∑i=1Nwi(m)I{hm(x(i))≠t(i)}∑i=1Nwi(m)\text{err}_m = \frac{\sum_{i=1}^{N} w_i^{(m)} \mathbb{I}\{h_m(\mathbf{x}^{(i)}) \neq t^{(i)}\}}{\sum_{i=1}^{N} w_i^{(m)}}errm=i=1Nwi(m)i=1Nwi(m)I{hm(x(i))=t(i)}
这是指在第mmm轮迭代中,弱分类器hmh_mhm错误分类的样本的权重之和除以所有样本权重之和。

我们现在可以找到下一轮迭代的更新后的样本权重:
wi(m+1)=exp⁡(−Hm(x(i))t(i))w_i^{(m+1)} = \exp \left( -H_m(\mathbf{x}^{(i)}) t^{(i)} \right)wi(m+1)=exp(Hm(x(i))t(i))
更新后的权重wi(m+1)w_i^{(m+1)}wi(m+1)由当前模型HmH_mHm对第iii个样本的预测值和真实标签t(i)t^{(i)}t(i)计算得出。
=exp⁡(−[Hm−1(x(i))+αmhm(x(i))]t(i))= \exp \left( - \left[ H_{m-1}(\mathbf{x}^{(i)}) + \alpha_m h_m(\mathbf{x}^{(i)}) \right] t^{(i)} \right)=exp([Hm1(x(i))+αmhm(x(i))]t(i))
这里Hm−1(x(i))H_{m-1}(\mathbf{x}^{(i)})Hm1(x(i))是前一轮迭代的加性模型预测值,αm\alpha_mαm是第mmm个弱分类器的权重,hm(x(i))h_m(\mathbf{x}^{(i)})hm(x(i))是第mmm个弱分类器对第iii个样本的预测值。
=exp⁡(−Hm−1(x(i))t(i))exp⁡(−αmhm(x(i))t(i))= \exp \left( -H_{m-1}(\mathbf{x}^{(i)}) t^{(i)} \right) \exp \left( -\alpha_m h_m(\mathbf{x}^{(i)}) t^{(i)} \right)=exp(Hm1(x(i))t(i))exp(αmhm(x(i))t(i))
将上式展开,得到前一轮模型预测和当前弱分类器预测的乘积。
=wi(m)exp⁡(−αmhm(x(i))t(i))= w_i^{(m)} \exp \left( -\alpha_m h_m(\mathbf{x}^{(i)}) t^{(i)} \right)=wi(m)exp(αmhm(x(i))t(i))
最终表达式显示,更新后的权重是当前权重wi(m)w_i^{(m)}wi(m)乘以exp⁡(−αmhm(x(i))t(i))\exp \left( -\alpha_m h_m(\mathbf{x}^{(i)}) t^{(i)} \right)exp(αmhm(x(i))t(i)),这反映了当前弱分类器对每个样本预测的影响。

2.1.7 AdaBoost 算法小结

总结起来,我们得到了加性模型Hm(x)=∑i=1mαihi(x)H_m(\mathbf{x}) = \sum_{i=1}^{m} \alpha_i h_i(\mathbf{x})Hm(x)=i=1mαihi(x),其中:
hm←arg⁡min⁡h∈H∑i=1Nwi(m)I{h(x(i))≠t(i)}h_m \leftarrow \arg\min_{h \in \mathcal{H}} \sum_{i=1}^{N} w_i^{(m)} \mathbb{I}\{h(\mathbf{x}^{(i)}) \neq t^{(i)}\}hmargminhHi=1Nwi(m)I{h(x(i))=t(i)}
找到使得加权错误率最小的弱分类器hmh_mhm
α=12log⁡(1−errmerrm)\alpha = \frac{1}{2} \log \left( \frac{1 - \text{err}_m}{\text{err}_m} \right)α=21log(errm1errm)
计算第mmm个弱分类器的权重ααα,其中errm\text{err}_merrm是第mmm个弱分类器的错误率。
errm=∑i=1Nwi(m)I{hm(x(i))≠t(i)}∑i=1Nwi(m)\text{err}_m = \frac{\sum_{i=1}^{N} w_i^{(m)} \mathbb{I}\{h_m(\mathbf{x}^{(i)}) \neq t^{(i)}\}}{\sum_{i=1}^{N} w_i^{(m)}}errm=i=1Nwi(m)i=1Nwi(m)I{hm(x(i))=t(i)}
计算第mmm个弱分类器的加权错误率errm\text{err}_merrm
wi(m+1)=wi(m)exp⁡(−αmhm(x(i))t(i))w_i^{(m+1)} = w_i^{(m)} \exp \left( -\alpha_m h_m(\mathbf{x}^{(i)}) t^{(i)} \right)wi(m+1)=wi(m)exp(αmhm(x(i))t(i))
更新第iii个样本在第m+1m+1m+1轮迭代中的权重wi(m+1)w_i^{(m+1)}wi(m+1)

2.2 小结

Boosting通过生成一系列弱分类器的集成来减少偏差。
这里的“弱分类器”指的是性能略优于随机猜测的分类器,它们是算法中的基本构建块。
每个分类器都被训练来减少前一个集成的错误。
它对过拟合相当有抵抗力,尽管它也可能过拟合。

3. 集成学习

我们今天学习了集成学习的两种主要方法:Boosting(提升法)和 Bagging(装袋法)。
集成方法通过组合多个分类器来提高性能。

Boosting(提升法):

  • 提升法通过逐步纠正前一个模型的错误来减少模型的偏差。
  • 由于模型是顺序训练的,集成的方差增加,可能导致过拟合。
  • 模型是顺序训练的,每个模型依赖于前一个模型的结果。
  • 集成中的元素之间存在高度依赖性。

Bagging(装袋法):

  • 装袋法通过并行训练多个模型来减少方差,大的集成不会引发过拟合。
  • 装袋法对模型的偏差影响不大。
  • 模型可以并行训练,因为它们是独立于彼此的。
  • 目标是最小化集成元素之间的相关性,以进一步减少方差。

因此我们可以得到。

方法主要目标偏差(Bias)方差(Variance)风险
Bagging降低方差几乎不变✅ 显著降低欠拟合风险小
Boosting降低偏差✅ 显著降低可能略升过拟合风险大
http://www.dtcms.com/a/601772.html

相关文章:

  • React+Ant design
  • C++四种类型转换cast,其在参数传递时的作用
  • 什么网站可以做图赚钱网站建设主体设计要求
  • 云手机的核心价值
  • L10_参数验证
  • 免费网站制作手机软件的appaso排名优化
  • Java是编译型语言吗?解析Java语言的编译与执行过程
  • Hugging face微调 GPT-2模型
  • 1.3 半监督学习黑科技:如何用少量标注数据提升模型性能,节省90%标注成本?
  • 声学超材料与AI驱动的声振仿真优化设计
  • 罗湖建设公司网站建设企业推广app
  • 2025最新版Python 3.14.0安装使用指南
  • Keil5创建新工程时找不到STM32芯片
  • 重庆企业免费建站网站开发前台后台怎么交互
  • html5可以做交互网站吗西安模板建站公司
  • PostgreSQL 可视化监控利器 —— pg_top 安装与使用全攻略(查看正在执行的SQL占用的资源)
  • C语言 | 文件操作详解与实战示例
  • Spring ThreadPoolTaskExecutor 与 CompletableFuture.supplyAsync 常用实践
  • 网站太卡怎么优化wordpress meta key
  • 现在入局自助KTV,算晚吗?
  • 用Microsoft Visual Studio Installer Projects 2022打包程序,同时安装VC++的运行库等
  • 南宁网站制作建设建设网站需要哪些语言
  • C语言在线编译工具 | 提升编程效率与学习体验
  • ARM《10》_03_字符设备驱动进阶(并发→竞态→同步机制、阻塞io和非阻塞io)
  • 【DaisyUI]】dropdown在点击菜单项之后不关闭,怎么破?
  • 常德公司做网站手机网站怎么做的好
  • 网站建设的可行性报告范文城市宣传片制作公司
  • Go语言编译型:高效的编程语言选择|深入探讨Go语言的编译特性与优势
  • 邓州网站制作企业网站设计思路
  • 区县政府税务数据分析能力建设DID(2007-2025)