# 7 -- Blending and Bagging
上节课我们主要介绍了Support Vector Regression,将kernel model引入到regression中。首先,通过将ridge regression和representer theorem结合起来,得到kernel ridge regression。但是其解是dense的,即不部分不为零。为了得到sparse解,我们将regularized tube error和Lagrange dual结合起来,利用SVM dual的推导方法,得到support vector regression的sparse解。本系列1-6节课主要介绍Kernel Models及其应用,从本节课开始,讲介绍Aggregation Models,即如何将不同的hypothesis和features结合起来,让模型更好。本节课将介绍其中的两个方法,一个是Blending,一个是Bagging。
### **Motivation of Aggregation**
首先举个例子来说明为什么要使用Aggregation。假如你有T个朋友,每个朋友向你预测推荐明天某支股票会涨还是会跌,对应的建议分别是![](https://img.kancloud.cn/d4/ca/d4cae5e946bd0e5cf3c11e16776847ec_102x12.jpg),那么你该选择哪个朋友的建议呢?即最终选择对股票预测的![](https://img.kancloud.cn/7c/92/7c92737b373fd7f5b1c6423e745e45e8_37x18.jpg)是什么样的?
第一种方法是从T个朋友中选择一个最受信任,对股票预测能力最强的人,直接听从他的建议就好。这是一种普遍的做法,对应的就是validation思想,即选择犯错误最小的模型。第二种方法,如果每个朋友在股票预测方面都是比较厉害的,都有各自的专长,那么就同时考虑T个朋友的建议,将所有结果做个投票,一人一票,最终决定出对该支股票的预测。这种方法对应的是uniformly思想。第三种方法,如果每个朋友水平不一,有的比较厉害,投票比重应该更大一些,有的比较差,投票比重应该更小一些。那么,仍然对T个朋友进行投票,只是每个人的投票权重不同。这种方法对应的是non-uniformly的思想。第四种方法与第三种方法类似,但是权重不是固定的,根据不同的条件,给予不同的权重。比如如果是传统行业的股票,那么给这方面比较厉害的朋友较高的投票权重,如果是服务行业,那么就给这方面比较厉害的朋友较高的投票权重。以上所述的这四种方法都是将不同人不同意见融合起来的方式,接下来我们就要讨论如何将这些做法对应到机器学习中去。Aggregation的思想与这个例子是类似的,即把多个hypothesis结合起来,得到更好的预测效果。
![这里写图片描述](https://img.kancloud.cn/dd/30/dd304cabdc2ec5574e16a9f48cf78dd8_581x251.jpg)
将刚刚举的例子的各种方法用数学化的语言和机器学习符号归纳表示出来,其中G(x)表示最终选择的模型。
第一种方法对应的模型:
![](https://img.kancloud.cn/98/13/9813e5b941d27ac88e6a2ce64f8e3404_383x20.jpg)
第二种方法对应的模型:
![](https://img.kancloud.cn/b5/c6/b5c6e3f12c7a118454217675c9076e4c_199x54.jpg)
第三种方法对应的模型:
![](https://img.kancloud.cn/d5/6c/d56c9939e592dcc6f6d8fd20564460f3_306x54.jpg)
第四种方法对应的模型:
![](https://img.kancloud.cn/84/d4/84d42a1e005ae43f6dd74e9c7691ef84_348x54.jpg)
![这里写图片描述](https://img.kancloud.cn/2f/44/2f446c3ad3a929bd81848004484e73b3_580x316.jpg)
注意这里提到的第一种方法是通过验证集来选择最佳模型,不能使用![](https://img.kancloud.cn/f0/00/f0008c286b0650e2d697853bc4cdb325_53x18.jpg)来代替![](https://img.kancloud.cn/59/c5/59c577ed321e9d573b3725c489354d3e_65x19.jpg)。经过Validation,选择最小的![](https://img.kancloud.cn/64/b0/64b0c174be38a68edcde7c49647ac695_31x15.jpg),保证![](https://img.kancloud.cn/87/b8/87b80d62d6a06ab606269c8e5d6405c2_31x15.jpg)最小,从而将对应的模型作为最佳的选择。
但是第一种方法只是从众多可能的hypothesis中选择最好的模型,并不能发挥集体的智慧。而Aggregation的思想是博采众长,将可能的hypothesis优势集合起来,将集体智慧融合起来,使预测模型达到更好的效果。
下面先来看一个例子,通过这个例子说明为什么Aggregation能work得更好。
![这里写图片描述](https://img.kancloud.cn/67/dc/67dccc0f7ce13ccee5912a6815da544d_204x205.jpg)
如上图所示,平面上分布着一些待分类的点。如果要求只能用一条水平的线或者垂直的线进行分类,那不论怎么选取直线,都达不到最佳的分类效果。这实际上就是上面介绍的第一种方法:validation。但是,如果可以使用集体智慧,比如一条水平线和两条垂直线组合而成的图中折线形式,就可以将所有的点完全分开,得到了最优化的预测模型。
这个例子表明,通过将不同的hypotheses均匀地结合起来,得到了比单一hypothesis更好的预测模型。这就是aggregation的优势所在,它提高了预测模型的power,起到了特征转换(feature transform)的效果。
![这里写图片描述](https://img.kancloud.cn/c6/14/c614917ff4658fcc27670c06ac31e047_327x153.jpg)
我们再从另外一方面来看,同样是平面上分布着一些待分类的点,使用PLA算法,可以得到很多满足条件的分类线,如下图所示:
![这里写图片描述](https://img.kancloud.cn/5b/b0/5bb06a7c11a71ae67af7bfc1389971fa_202x202.jpg)
这无数条PLA选择出来的直线对应的hypothesis都是满足分类要求的。但是我们最想得到的分类直线是中间那条距离所有点都比较远的黑色直线,这与之前SVM目标是一致的。如果我们将所有可能的hypothesis结合起来,以投票的方式进行组合选择,最终会发现投票得到的分类线就是中间和黑色那条。这从哲学的角度来说,就是对各种效果较好的可能性进行组合,得到的结果一般是中庸的、最合适的,即对应图中那条黑色直线。所以,aggregation也起到了正则化(regularization)的效果,让预测模型更具有代表性。
![这里写图片描述](https://img.kancloud.cn/02/84/0284234ca502b1383e504a9397e36cc8_327x154.jpg)
基于以上的两个例子,我们得到了aggregation的两个优势:feature transform和regularization。我们之前在机器学习基石课程中就介绍过,feature transform和regularization是对立的,还把它们分别比作踩油门和踩刹车。如果进行feature transform,那么regularization的效果通常很差,反之亦然。也就是说,单一模型通常只能倾向于feature transform和regularization之一,在两者之间做个权衡。但是aggregation却能将feature transform和regularization各自的优势结合起来,好比把油门和刹车都控制得很好,从而得到不错的预测模型。
### **Uniform Blending**
那对于我们已经选择的性能较好的一些矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg),如何将它们进行整合、合并,来得到最佳的预测模型呢?这个过程称为blending。
最常用的一种方法是uniform blending,应用于classification分类问题,做法是将每一个可能的矩赋予权重1,进行投票,得到的G(x)表示为:
![](https://img.kancloud.cn/8b/5f/8b5f80ad0ce6523feb7af2ee9920f53a_187x54.jpg)
这种方法对应三种情况:第一种情况是每个候选的矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)都完全一样,这跟选其中任意一个![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)效果相同;第二种情况是每个候选的矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)都有一些差别,这是最常遇到的,大都可以通过投票的形式使多数意见修正少数意见,从而得到很好的模型,如下图所示;第三种情况是多分类问题,选择投票数最多的那一类即可。
![这里写图片描述](https://img.kancloud.cn/0f/a5/0fa505325292b952858a1b2692356f6a_587x227.jpg)
如果是regression回归问题,uniform blending的做法很简单,就是将所有的矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)求平均值:
![](https://img.kancloud.cn/52/f9/52f9b915fbd44eb399050d64f932f3ac_149x54.jpg)
uniform blending for regression对应两种情况:第一种情况是每个候选的矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)都完全一样,这跟选其中任意一个![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)效果相同;第二种情况是每个候选的矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)都有一些差别,有的![](https://img.kancloud.cn/46/ad/46ad2f78741d8205437cd021b1cfdee7_72x18.jpg),有的![](https://img.kancloud.cn/a7/4f/a74f4c22635b0c70006489271e713c05_72x18.jpg),此时求平均值的操作可能会消去这种大于和小于的影响,从而得到更好的回归模型。因此,从直觉上来说,求平均值的操作更加稳定,更加准确。
![这里写图片描述](https://img.kancloud.cn/62/10/621075f3041f81383977c3287aa647b7_581x129.jpg)
对于uniform blending,一般要求每个候选的矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)都有一些差别。这样,通过不同矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的组合和集体智慧,都能得到比单一矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)更好的模型。
刚才我们提到了uniform blending for regression中,计算![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的平均值可能比单一的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)更稳定,更准确。下面进行简单的推导和证明。
![这里写图片描述](https://img.kancloud.cn/6e/a2/6ea21891cda1df518893c5f3ecd8bcee_580x195.jpg)
推导过程中注意![](https://img.kancloud.cn/62/c6/62c6cb6d4d74bee5603eeaf628ead67f_114x18.jpg)。经过推导,我们发现![](https://img.kancloud.cn/7f/ce/7fce32b2c24c947dbe9235b9d4fd1027_157x20.jpg)与![](https://img.kancloud.cn/c5/c4/c5c481de77342ef493e7dbda77ad7703_66x20.jpg)之间差了![](https://img.kancloud.cn/6c/4a/6c4abcc80452279a18c0217a6136b643_113x20.jpg)项,且是大于零的。从而得到![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)与目标函数f的差值要比G与f的差值大。
刚才是对单一的x进行证明,如果从期望角度,对整个x分布进行上述公式的整理,得到:
![这里写图片描述](https://img.kancloud.cn/d4/96/d496a1209be64509946a3d885c28d6bc_389x89.jpg)
从结果上来看,![](https://img.kancloud.cn/66/9f/669f6a61499b923986441afaefce9e6b_186x18.jpg),从而证明了从平均上来说,计算![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的平均值G(t)要比单一的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)更接近目标函数f,regression效果更好。
我们已经知道G是数目为T的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的平均值。令包含N个数据的样本D独立同分布于![](https://img.kancloud.cn/6e/cd/6ecd92504e8b7932d8c5583f3d4e1cfc_26x16.jpg),每次从新的![](https://img.kancloud.cn/6b/8b/6b8bd73399d8c3bd1bc268f6dd4aa47a_20x15.jpg)中学习得到新的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg),在对![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)求平均得到G,当做无限多次,即T趋向于无穷大的时候:
![](https://img.kancloud.cn/8b/5a/8b5ade42d7180c4b89dd8622542a5f63_358x54.jpg)
![这里写图片描述](https://img.kancloud.cn/af/fd/affdf00116b788d3ae9524309bfa3350_580x151.jpg)
当T趋于无穷大的时候,![](https://img.kancloud.cn/e3/5c/e35c3626fb4c6dd9fde83f9cde9ce466_48x16.jpg),则有如下等式成立:
![这里写图片描述](https://img.kancloud.cn/6f/3e/6f3e9200f7bf6a2b67dd1ae9d9587380_580x161.jpg)
上述等式中左边表示演算法误差的期望值;右边第二项表示不同![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的平均误差共识,用偏差bias表示;右边第一项表示不同![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)与共识的差距是多少,反映![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)之间的偏差,用方差variance表示。也就是说,一个演算法的平均表现可以被拆成两项,一个是所有![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的共识,一个是不同![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)之间的差距是多少,即bias和variance。而uniform blending的操作时求平均的过程,这样就削减弱化了上式第一项variance的值,从而演算法的表现就更好了,能得到更加稳定的表现。
### **Linear and Any Blending**
上一部分讲的是uniform blending,即每个![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)所占的权重都是1,求平均的思想。下面我们将介绍linear blending,每个![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)赋予的权重![](https://img.kancloud.cn/61/cd/61cd484a3def0840e0d3a201a1b9ae83_16x11.jpg)并不相同,其中![](https://img.kancloud.cn/f6/44/f6448bc732b4745d8c0f8ef08ff989c0_50x15.jpg)。我们最终得到的预测结果等于所有![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的线性组合。
![这里写图片描述](https://img.kancloud.cn/01/17/011789a0850ff93268a052334f9e1ebd_580x111.jpg)
如何确定![](https://img.kancloud.cn/61/cd/61cd484a3def0840e0d3a201a1b9ae83_16x11.jpg)的值,方法是利用误差最小化的思想,找出最佳的![](https://img.kancloud.cn/61/cd/61cd484a3def0840e0d3a201a1b9ae83_16x11.jpg),使![](https://img.kancloud.cn/97/78/97780295ac648c4383ea9b180352708a_51x18.jpg)取最小值。例如对于linear blending for regression,![](https://img.kancloud.cn/97/78/97780295ac648c4383ea9b180352708a_51x18.jpg)可以写成下图左边形式,其中![](https://img.kancloud.cn/61/cd/61cd484a3def0840e0d3a201a1b9ae83_16x11.jpg)是带求解参数,![](https://img.kancloud.cn/fd/dc/fddc1fe62e2f741c1a410522d70f45a9_46x18.jpg)是每个矩得到的预测值,由已知矩得到。这种形式很类似于下图右边的形式,即加上特征转换![](https://img.kancloud.cn/4a/50/4a5061953958210449e6e589aca1dcfa_48x18.jpg)的linear regression模型。两个式子中的![](https://img.kancloud.cn/fd/dc/fddc1fe62e2f741c1a410522d70f45a9_46x18.jpg)对应于![](https://img.kancloud.cn/4a/50/4a5061953958210449e6e589aca1dcfa_48x18.jpg),唯一不同的就是linear blending for regression中![](https://img.kancloud.cn/f6/44/f6448bc732b4745d8c0f8ef08ff989c0_50x15.jpg),而linear regression中![](https://img.kancloud.cn/49/4f/494f262c0ded99d8ddd368cee8ff26d6_17x11.jpg)没有限制。
![这里写图片描述](https://img.kancloud.cn/9d/d4/9dd494f55657792e7a1090bf278d07fc_580x259.jpg)
这种求解![](https://img.kancloud.cn/61/cd/61cd484a3def0840e0d3a201a1b9ae83_16x11.jpg)的方法就像是使用two-level learning,类似于我们之前介绍的probabilistic SVM。这里,我们先计算![](https://img.kancloud.cn/fd/dc/fddc1fe62e2f741c1a410522d70f45a9_46x18.jpg),再进行linear regression得到![](https://img.kancloud.cn/61/cd/61cd484a3def0840e0d3a201a1b9ae83_16x11.jpg)值。总的来说,linear blending由三个部分组成:LinModel,hypotheses as transform,constraints。其中值得注意的一点就是,计算过程中可以把![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)当成feature transform,求解过程就跟之前没有什么不同,除了![](https://img.kancloud.cn/a6/36/a63684db2eb0b87cdc234a6e27f56ef6_45x15.jpg)的条件限制。
![这里写图片描述](https://img.kancloud.cn/bd/64/bd6494544b89e0f340bf0ef5a77d9bfd_581x111.jpg)
我们来看一下linear blending中的constraint ![](https://img.kancloud.cn/f6/44/f6448bc732b4745d8c0f8ef08ff989c0_50x15.jpg)。这个条件是否一定要成立呢?如果![](https://img.kancloud.cn/03/59/03590432eb0145f2217c744e001d03d3_50x15.jpg),会带来什么后果呢?其实![](https://img.kancloud.cn/03/59/03590432eb0145f2217c744e001d03d3_50x15.jpg)并不会影响分类效果,只需要将正类看成负类,负类当成正类即可。例如分类问题,判断该点是正类对应的![](https://img.kancloud.cn/03/59/03590432eb0145f2217c744e001d03d3_50x15.jpg),则它就表示该点是负类,且对应的![](https://img.kancloud.cn/82/47/824710b35b7b0ae1773f68d61e6c7e15_63x15.jpg)。如果我们说这个样本是正类的概率是-99%,意思也就是说该样本是负类的概率是99%。![](https://img.kancloud.cn/f6/44/f6448bc732b4745d8c0f8ef08ff989c0_50x15.jpg)和![](https://img.kancloud.cn/03/59/03590432eb0145f2217c744e001d03d3_50x15.jpg)的效果是等同的一致的。所以,我们可以把![](https://img.kancloud.cn/f6/44/f6448bc732b4745d8c0f8ef08ff989c0_50x15.jpg)这个条件舍去,这样linear blending就可以使用常规方法求解。
![这里写图片描述](https://img.kancloud.cn/f7/ab/f7abe615725fe50def2db876a51ca630_580x232.jpg)
Linear Blending中使用的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)是通过模型选择而得到的,利用validation,从![](https://img.kancloud.cn/a3/0a/a30a87f7e7ba63fd5fed5015675f10c8_45x15.jpg)中得到![](https://img.kancloud.cn/4c/8b/4c8b9e1e3b31005389345dcf7a54c5a8_111x17.jpg)。然后将![](https://img.kancloud.cn/a3/0a/a30a87f7e7ba63fd5fed5015675f10c8_45x15.jpg)中每个数据点经过各个矩的计算得到的值,代入到相应的linear blending计算公式中,迭代优化得到对应![](https://img.kancloud.cn/38/9a/389a9983ea24ad0b3af0559c2aca381b_11x8.gif)值。最终,再利用所有样本数据,得到新的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)代替![](https://img.kancloud.cn/cc/a7/cca754811908445c25df376701a71929_18x16.jpg),则G(t)就是![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的线性组合而不是![](https://img.kancloud.cn/cc/a7/cca754811908445c25df376701a71929_18x16.jpg),系数是![](https://img.kancloud.cn/61/cd/61cd484a3def0840e0d3a201a1b9ae83_16x11.jpg)。
![这里写图片描述](https://img.kancloud.cn/9d/b2/9db2e64e7e1ae6796be8c9cd077c9a35_581x380.jpg)
![这里写图片描述](https://img.kancloud.cn/27/a7/27a7c527c0507227cea222ba64262d01_580x349.jpg)
除了linear blending之外,还可以使用任意形式的blending。linear blending中,G(t)是g(t)的线性组合;any blending中,G(t)可以是g(t)的任何函数形式(非线性)。这种形式的blending也叫做Stacking。any blending的优点是模型复杂度提高,更容易获得更好的预测模型;缺点是复杂模型也容易带来过拟合的危险。所以,在使用any blending的过程中要时刻注意避免过拟合发生,通过采用regularization的方法,让模型具有更好的泛化能力。
### **Bagging(Bootstrap Aggregation)**
总结一些上面讲的内容,blending的做法就是将已经得到的矩![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)进行aggregate的操作。具体的aggregation形式包括:uniform,non-uniforn和conditional。
![这里写图片描述](https://img.kancloud.cn/f9/d7/f9d7c03dab54d4001c16be1b5cc63580_580x152.jpg)
现在考虑一个问题:如何得到不同的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)呢?可以选取不同模型H;可以设置不同的参数,例如![](https://img.kancloud.cn/ea/7b/ea7be4a5cce8f4286fbf9fa894a62760_9x12.jpg)、迭代次数n等;可以由算法的随机性得到,例如PLA、随机种子等;可以选择不同的数据样本等。这些方法都可能得到不同的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)。
![这里写图片描述](https://img.kancloud.cn/cd/cf/cdcf7e14c21217bd93f1a0e1b60dd069_578x188.jpg)
那如何利用已有的一份数据集来构造出不同的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)呢?首先,我们回顾一下之前介绍的bias-variance,即一个演算法的平均表现可以被拆成两项,一个是所有![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的共识(bias),一个是不同![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)之间的差距是多少(variance)。其中每个![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)都是需要新的数据集的。只有一份数据集的情况下,如何构造新的数据集?
![这里写图片描述](https://img.kancloud.cn/1d/c6/1dc60edc8c2d80422c7548849737653d_580x97.jpg)
其中,![](https://img.kancloud.cn/3d/1b/3d1b558e820fd4ebb3b4eaff35be5c10_10x15.jpg)是在矩个数T趋向于无穷大的时候,不同的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)计算平均得到的值。这里我们为了得到![](https://img.kancloud.cn/3d/1b/3d1b558e820fd4ebb3b4eaff35be5c10_10x15.jpg),做两个近似条件:
* **有限的T;**
* **由已有数据集D构造出![](https://img.kancloud.cn/6c/70/6c7046d3a73a80ee02cac2cef93e66e9_52x19.jpg),独立同分布**
第一个条件没有问题,第二个近似条件的做法就是bootstrapping。bootstrapping是统计学的一个工具,思想就是从已有数据集D中模拟出其他类似的样本![](https://img.kancloud.cn/6b/8b/6b8bd73399d8c3bd1bc268f6dd4aa47a_20x15.jpg)。
![这里写图片描述](https://img.kancloud.cn/92/24/922486e70e3cc3c203b96c014537d3b2_581x207.jpg)
bootstrapping的做法是,假设有N笔资料,先从中选出一个样本,再放回去,再选择一个样本,再放回去,共重复N次。这样我们就得到了一个新的N笔资料,这个新的![](https://img.kancloud.cn/bb/5f/bb5f09fa00ca978f948dc92104fd97eb_20x20.jpg)中可能包含原D里的重复样本点,也可能没有原D里的某些样本,![](https://img.kancloud.cn/bb/5f/bb5f09fa00ca978f948dc92104fd97eb_20x20.jpg)与D类似但又不完全相同。值得一提的是,抽取-放回的操作不一定非要是N,次数可以任意设定。例如原始样本有10000个,我们可以抽取-放回3000次,得到包含3000个样本的![](https://img.kancloud.cn/bb/5f/bb5f09fa00ca978f948dc92104fd97eb_20x20.jpg)也是完全可以的。利用bootstrap进行aggragation的操作就被称为bagging。
![这里写图片描述](https://img.kancloud.cn/84/f7/84f7fd59b35b03cc4a13491c588a66c4_560x186.jpg)
下面举个实际中Bagging Pocket算法的例子。如下图所示,先通过bootstrapping得到25个不同样本集,再使用pocket算法得到25个不同的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg),每个pocket算法迭代1000次。最后,再利用blending,将所有的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)融合起来,得到最终的分类线,如图中黑线所示。可以看出,虽然bootstrapping会得到差别很大的分类线(灰线),但是经过blending后,得到的分类线效果是不错的,则bagging通常能得到最佳的分类模型。
![这里写图片描述](https://img.kancloud.cn/35/be/35be0f8ca0cf3894fab302d5141afa86_274x261.jpg)
值得注意的是,只有当演算法对数据样本分布比较敏感的情况下,才有比较好的表现。
### **总结**
本节课主要介绍了blending和bagging的方法,它们都属于aggregation,即将不同的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)合并起来,利用集体的智慧得到更加优化的G(t)。Blending通常分为三种情况:Uniform Blending,Linear Blending和Any Blending。其中,uniform blending采样最简单的“一人一票”的方法,linear blending和any blending都采用标准的two-level learning方法,类似于特征转换的操作,来得到不同![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg)的线性组合或非线性组合。最后,我们介绍了如何利用bagging(bootstrap aggregation),从已有数据集D中模拟出其他类似的样本![](https://img.kancloud.cn/6b/8b/6b8bd73399d8c3bd1bc268f6dd4aa47a_20x15.jpg),而得到不同的![](https://img.kancloud.cn/7f/6b/7f6b19f632c7de7dc0365d013fa05113_14x12.jpg),再合并起来,优化预测模型。
**_注明:_**
文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程
- 台湾大学林轩田机器学习笔记
- 机器学习基石
- 1 -- The Learning Problem
- 2 -- Learning to Answer Yes/No
- 3 -- Types of Learning
- 4 -- Feasibility of Learning
- 5 -- Training versus Testing
- 6 -- Theory of Generalization
- 7 -- The VC Dimension
- 8 -- Noise and Error
- 9 -- Linear Regression
- 10 -- Logistic Regression
- 11 -- Linear Models for Classification
- 12 -- Nonlinear Transformation
- 13 -- Hazard of Overfitting
- 14 -- Regularization
- 15 -- Validation
- 16 -- Three Learning Principles
- 机器学习技法
- 1 -- Linear Support Vector Machine
- 2 -- Dual Support Vector Machine
- 3 -- Kernel Support Vector Machine
- 4 -- Soft-Margin Support Vector Machine
- 5 -- Kernel Logistic Regression
- 6 -- Support Vector Regression
- 7 -- Blending and Bagging
- 8 -- Adaptive Boosting
- 9 -- Decision Tree
- 10 -- Random Forest
- 11 -- Gradient Boosted Decision Tree
- 12 -- Neural Network
- 13 -- Deep Learning
- 14 -- Radial Basis Function Network
- 15 -- Matrix Factorization
- 16(完结) -- Finale