广东快乐10分预测

当前位置:广东快乐10分预测 > 广东快乐10分预测 > 集成学习之AdaBoost广东快乐10分预测

集成学习之AdaBoost广东快乐10分预测

来源:http://www.btxygg.com 作者:广东快乐10分预测 时间:2019-11-08 13:42

对 bagging的快速回顾

总分类器

H(x) = sign(0.423C1(x) 0.649C2(x) 0.182C3(x))

最终,我们希望构建如下图所示的强分类器:

 AdaBoost

  当做出重要决定时,大家可能会考虑吸取多个专家而不只是一个人的意见,机器学习也是如此,这就是集成学习的基本思想。使用集成方法时有多种形式:可以是不同算法的集成,也可以是同一算法在不同设置下的集成,还可以是数据集不同部分分配给不同分类器之后的集成。

  由于集成学习有效地考虑了多个不同的模型,一般而言能够获得较好的性能,因此在很多注重算法性能的场合,集成学习一般是首选。例如,在很多数据挖掘的竞赛中,获胜的算法一般都是使用集成学习将多个模型聚合而成。

  与单个模型相比,集成学习的缺点包括:

(1)计算复杂度较大。因为在集成学习中需要训练多个模型,所以计算复杂度会有较大程度的提高;

(2)一般而言,所得的模型很难解释。如单个决策树模型很容易解释,而由多个决策树组成的随机森林(random forest)却不大容易解释。

  根据基学习器的生成策略,集成学习的方法可以分为两类:

(1)并行方法(parallel method),以bagging为主要代表;

(2)顺序方法(sequential method),以boosting为主要代表。

待划分的 3 个数据点

示例

给定训练集中有10个训练样本:

广东快乐10分预测 1

 

 

如果进行3轮迭代,根据上面的介绍:M=3,N=10,基础分类器为决策树。

结语

代码

  1 MIN_ERR = 0.0001
  2 class MyAdaBoost:  
  3     def __init__(self, x_features, y_labels, classifer):  
  4         #总训练集features
  5         self.x_features = np.array(x_features)
  6         #总训练集labels, 取值 -1, 1
  7         self.y_labels = np.array(y_labels)
  8         #共N个训练集
  9         self.N = self.x_features.shape[0]
 10         #基础分类器,分类器的预测结果返回-1或1
 11         self.classifer = classifer  
 12         #初始化每个训练集的加权值
 13         self.W = np.ones((self.N, 1)) / self.N
 14          
 15  
 16     def train(self, M:'迭代次数'=3):  
 17         #每次迭代形成的分类器
 18         self.C = {}  
 19         #分类器权重
 20         self.alpha = {}  
 21  
 22         #迭代M次
 23         for i in range(M):
 24             #本轮分类器
 25             self.C[i] = self.classifer(self.x_features, self.y_labels)
 26             #本轮分类器的加权误差率
 27             err = self.C[i].train(self.W)  
 28             #self.C[i] 的权重
 29             self.alpha[i] = 1 / 2 * np.log((1 - err) / err)  
 30             #分类器C[i]的预测结果
 31             pred_y = np.array(self.C[i].pred(self.x_features))
 32             #flatten返回一个叠成一维的数组,预测结果与实际结果相乘,相同为1,相异为-1 
 33             pred_compare = pred_y.flatten() * self.y_labels.flatten()
 34             #重新计算训练样本的权值
 35             Z = self.W.flatten() * np.exp(-self.alpha[i] * pred_compare)
 36             self.W = (Z / Z.sum()).reshape(self.N, 1)
 37             
 38             print('m%d'%(i 1))
 39             print('w =', self.W.flatten())
 40             print('value = %f' % self.C[i].item_value)
 41             print('err = %f' % err)
 42             print('alpha = %f' % self.alpha[i])
 43             print('-' * 100)
 44             
 45             if err <= MIN_ERR:
 46                 break
 47             
 48     def pred(self, test_x):  
 49         sums = 0
 50         for i in self.C:
 51             sums  = self.C[i].pred(test_x) * self.alpha[i]
 52             
 53         return np.sign(sums)
 54 
 55 class DumpClassifier:
 56     def __init__(self, x_features, y_labels):
 57         self.x_features = x_features
 58         self.y_features = y_labels
 59         #分裂项的下标
 60         self.item_idx = 0
 61         #分裂项的值
 62         self.item_value = 0
 63         #训练集的权值
 64         self.W = None
 65         
 66         self.threshIneq = 'lt'
 67     
 68     def train(self, W):
 69         self.W = W
 70         #最小误差值
 71         minErr = 9999999
 72         #分裂项缓存,存储分裂项下标和分裂项值组成的元组
 73         descItem = {}
 74         
 75         #按列循环
 76         for idx in range(self.x_features.shape[1]):
 77             #根据这一列的每个值尝试对数据集进行拆分
 78             for value in self.x_features.T[idx]:          
 79                 if (idx, value) in descItem:
 80                     minErr = descItem[(idx, value)]
 81                     continue
 82                 
 83                 #寻找最佳决策树
 84                 thisErr_gt = self.getThisErr(idx, value, 'gt')
 85                 thisErr_lt = self.getThisErr(idx, value, 'lt')
 86                 thisErr = min(thisErr_gt, thisErr_lt)
 87                 if thisErr < minErr:
 88                     self.item_idx, self.item_value, minErr = idx, value, thisErr
 89                     self.threshIneq = 'lt' if thisErr_lt < thisErr_gt else 'gt'
 90                 
 91                 descItem[(idx, value)] = minErr
 92         
 93         print(self.threshIneq)
 94         return minErr
 95 
 96     def getThisErr(self, idx, value, threshIneq):
 97         thisErr = MIN_ERR
 98         #循环所有训练集,取得最佳分裂值,i表示第i个训练样本
 99         for i in range(self.x_features.shape[0]):
100             x, y = self.x_features[i], y_labels[i]
101             y_pred = self._pred(x, idx, value, threshIneq)
102             if y_pred != y[0]:
103                 thisErr  = self.W[i]
104                 
105         return thisErr     
106                 
107                         
108     def _pred(self, x, item_idx, item_value, threshIneq):
109         if threshIneq == 'lt':
110             return 1 if x[item_idx] <= item_value else -1
111         else:
112             return 1 if x[item_idx] > item_value else -1
113             
114 #         #连续型数据
115 #         if item_idx == 0:
116 #             if threshIneq == 'gt':
117 #                 return 1 if item_value >= x[item_idx] else -1
118 #             else:
119 #                 return 1 if item_value < x[item_idx] else -1
120 #         #离散型数据
121 #         else:
122 #             return 1 if item_value == x[item_idx] else -1
123 
124     def pred(self, x_features):
125         y = []
126         for x in x_features:
127             y.append([self._pred(x, self.item_idx, self.item_value, self.threshIneq)])
128             
129         return y

 

 控制台结果:

广东快乐10分预测 2

  


 

参考文献:

《机器学习导论 第二版》

《使用机器学习》

 http://www.cnblogs.com/chaosimple/p/4029795.html

http://www.cnblogs.com/esefcu0320----/p/6045612.html

 作者:我是8位的

 出处:

 本文以学习、研究和分享为主,如需转载,请联系本人,标明作者和出处,非商业用途! 

 

无需计算 Z

第2轮迭代,M=2

新一轮的样本权值W2=[0.07144558  0.07144558  0.07144558  0.07144558  0.07144558  0.07144558  0.16662699  0.16662699  0.16662699  0.07144558],上轮分错的[[6],[7],[8]]权值增大,其余减小。

当选择x<=8为1进行分类时,[[3],[4],[5]]分错,此时得到最佳误差率ε2 =0.214437

分类器

广东快乐10分预测 3

α2 = 0.649193

广东快乐10分预测 4

Boosting

  Boosting是与Bagging相似的一种技术,其核心思想是针对同一个训练集训练出不同的弱分类器,然后把这些弱分类器集合起来,构造一个更强的最终分类器。

  所谓弱分类器,意味着分类器的正确性比随机猜测略好,但是不会好太多。这就意味着在二分类的情况下弱分类器的错误率可能高于50%,而强分类器的错误率就会低很多。

  多个弱分类器的意思并不是指每种分类器都使用了不同的分类算法,而是使用了同一分类算法,但是经过训练得出不同的模型。例如,使用线性分类器对一维特征集进行分类,由于训练数据不同,将得到f(x)=2x 3和f(x)=2.5x 2两个分类模型。

   在PAC(概率近似正确)学习框架下,一定可以将弱分类器组装成一个强分类器。PAC 定义了学习算法的强弱:

  • 弱学习算法---识别错误率小于1/2(即准确率仅比随机猜测略高的学习算法)
  • 强学习算法---识别准确率很高并能在多项式时间内完成的学习算法

  Valiant和 Kearns首次提出了PAC学习模型中弱学习算法和强学习算法的等价性问题,即任意给定仅比随机猜测略好的弱学习算法,是否可以将其提升为强学习算法? 如果二者等价,那么只需找到一个比随机猜测略好的弱学习算法就可以将其提升为强学习算法 ,而不必寻找很难获得的强学习算法。也就是这种猜测,让无数牛人去设计算法来验证PAC理论的正确性。

决策树桩的组合可能有很多种。接下来,让我们看看在这个简单的示例中有多少种树桩组合?

Bagging与Boosting的区别

1.样本选择:

Bagging:每一轮的训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。

Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。

2.样例权重:

Bagging:使用均匀取样,每个样例的权重相等

Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。

3.预测函数:

Bagging:所有预测函数的权重相等。

Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。

4.并行计算:

Bagging:各个预测函数可以并行生成

Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。

该过程可以通过以下方式来说明。让我们考虑 3 个分类器,它们生成一个分类结果,该结果可能是对的也可能是错的。如果我们绘制 3 个分类器的结果,会有一些区域代表分类器的结果是错误的。在下图中,这样的区域用红色表示:

第3轮迭代,M=3

新一轮的样本权值W3=[ 0.04548182  0.04548182  0.04548182  0.16661719  0.16661719  0.16661719  0.10607372  0.10607372  0.10607372  0.04548182],上轮分错的[[3],[4],[5]]权值增大,其余减小。

当选择x>5为1进行分类时,[[0],[1],[2],[9]]分错,此时得到最佳误差率ε3 =0.182027

分类器

广东快乐10分预测 5

α3 = 0.751336

不妨想想二维图像上的数据点。有些点会被很好地分类,有些则不会。通常,在计算误差率时,每个误差的权重为 1/n,其中 n 是待分类的数据点个数。

Bagging

  bootstrap aggregating方法也称为bagging方法,是从原始数据集进行随机放回抽样后得到彼此独立的M个新数据集的技术。新数据集中可以有重复的数据,原数据集中的部分数据可能不会在新数据集中出现。

  在M个数据集建立好后,将分类器算器(可以使用多种不同算法)分别作用于M个数据集,这样就得到了M个模型。当对新数据分类时,就可以应用这M个分类模型分类,对结果进行投票,得票最多的即是最后结果。随机森林是一种更先进的bagging方法。

  Bagging算法过程如下:

  1. 每轮从原始训练集中有放回地抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中)。共进行M轮抽取,得到M个训练集。(M个训练集之间是相互独立的)
  2. 每次使用一个训练集得到一个模型,M个训练集共得到M个模型。(这里并没有具体的分类算法或回归方法,我们可以根据具体问题采用不同的分类或回归方法,如决策树、感知器等)
  3. 对分类问题:将上步得到的M个模型采用投票的方式得到分类结果;对回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同)

在这种情况下,t 时刻的最佳划分是将「支付历史」作为树桩,因为这种划分的加权误差是最小的。

第1轮迭代,M=1

样本权值W1(i)=1/10=0.1,

当选择x<=2为1进行分类时,[[6],[7],[8]]分错,此时得到最佳误差率ε1 = 0.300100

分类器

广东快乐10分预测 6

α1 = 0.423411

对 h1 ≠ h2 的区域的数据加权重,并在这些数据上训练模型 h3

AdaBoost

  上面提到了对PAC模型的猜测,不过很长一段时间都没有一个切实可行的办法来实现这个理想。细节决定成败,再好的理论也需要有效的算法来执行。终于功夫不负有心人,Schapire在1996年提出一个有效的算法真正实现了这个夙愿,它的名字叫AdaBoost。AdaBoost把多个不同的决策树用一种非随机的方式组合起来,表现出惊人的性能!第一,把决策树的准确率大大提高,可以与SVM媲美。第二,速度快,且基本不用调参数。第三,几乎不Overfitting。我估计当时Breiman和Friedman肯定高兴坏了,因为眼看着他们提出的CART正在被SVM比下去的时候,AdaBoost让决策树起死回生!Breiman情不自禁地在他的论文里赞扬AdaBoost是最好的现货方法(off-the-shelf,即“拿下了就可以用”的意思)。

  AdaBoost是adaptive boosting的缩写,是众多Boosting算法中较为流行的一种。

  AdaBoost算法针对不同的训练集训练同一个(使用相同算法)基本分类器(弱分类器),然后把这些在不同训练集上得到的分类器集合起来,构成一个更强的最终的分类器(强分类器)。理论证明,只要每个弱分类器分类能力比随机猜测要好,当其个数趋向于无穷个数时,强分类器的错误率将趋向于零。这点可以用直观感觉判断,只要每个分类器的正确率比错误率稍高一点点,当分类器足够多的时候,正确的数量就会压倒错误的数量。

  需要注意都是,AdaBoost训练的所有分类器,在训练集上的正确率都应当高于50%,否则这个分类器将比随机猜测还要差,可能根本就是一个错误的分类器,上面的结论(当分类器足够多的时候,正确的数量就会压倒错误的数量)也不成立。

  AdaBoost算法中不同的训练集是通过调整每个样本对应的权重实现的。一开始的时候每个样本的权重相等,由此训练处一个基本分类器C1。对于C1分错和分对的样本,分别增大和减小其权重,再计算出C1的权重;重复该操作M轮,以使得权重大的样本更倾向于分类正确,最终得出总分类器。从直观上讲,后面的弱分类器集中处理前面被错分的样本,这样使得分类器犯的错误各不相同,因此聚合之后能够得到较好的效果。

广东快乐10分预测 7

具体过程如下:

  1. 共有N个训练样本
  2. 训练集中的每个样本的权重为W,Wi表示第i个样本的权重系数,W的初始值是1/N
  3. 共训练M轮,每轮得到得到一个弱分类器C,Cm表示第m轮训练后得到的弱分类器
  4. 开始迭代,计算每个弱分类器的权重,并更新样本的权重系数

4.1.每轮中分类器的加权误差率为:

广东快乐10分预测 8

  该误差率也是每轮基本分类器的损失函数,训练的目标是使损失函数最小。上式中下标m表示第m轮训练;上标i表示第i个训练样本;分母值为1。其中εm表示在第m轮训练中,弱分类器Cm的加权误差率,介于[0,1]之间; I(Cm(x(i))≠y(i))是一个指示函数,具体如下:

广东快乐10分预测 9

4.2.计算弱分类器Cm的权重系数,也就是Cm在整个算法中的话语权:

广东快乐10分预测 10

函数曲线如下:

广东快乐10分预测 11

由此可见,分类器加权误差率越小,其权重越大;方误差率超过0.5时,权重降为负值,这也是我们需要舍弃错误率在50%以上的分类器的原因。

4.3.更新训练集中每个训练样本的权重系数:

广东快乐10分预测 12

由于αm>0,故而exp(-αm)<1,当样本被基本分类器正确分类时,其权重在减小,反之权重在增大。

4.4.跳转到4.1直到迭代结束。

5.得到最后的总分类器,总分类器是由每轮迭代产生的弱分类器综合而来:

广东快乐10分预测 13

如果是二分类:

广东快乐10分预测 14

  实质上,在整个训练的过程中,每轮训练得到的弱分类器可能一直会存在分类错误的问题(不论训练了多少轮,生成的单个弱分类器都有分类错误),然而整个AdaBoost框架却有可能快速收敛(整个AdaBoost框架的错误率为0)。造成这个现象的原因是:

  每轮训练结束后,AdaBoost框架会对样本的权重进行调整,该调整的结果是越到后面被错误分类的样本权重会越高。这样到后面,单个弱分类器为了达到较低的带权分类误差都会把样本权重高的样本分类正确。虽然单独来看,单个弱分类器仍会造成分类错误,但这些被错误分类的样本的权重都较低,在AdaBoost框架的最后输出时会被前面正确分类的高权重弱分类器“平衡”掉。这样造成的结果就是,虽然每个弱分类器可能都有分错的样本,然而整个AdaBoost框架却能保证对每个样本进行正确分类,从而实现快速收敛。

Bagging 分类器的公式

广东快乐10分预测 15

大功告成!这种算法就是「AdaBoost」。如果你想充分理解所有的 boosting 方法,那么这是你需要理解的最重要的算法。

小结一下

from sklearn.model_selection import train_test_split

广东快乐10分预测 16

计算

选择了恰当的 α 和 Z 之后得到的权重

Bagging 指的是一种叫做「Bootstrap Aggregating」的技术。其实质是选取 T 个 bootstrap 样本,在每个样本安装一个分类器,然后并行训练模型。通常,在随机森林中,决策树是并行训练的。然后,将所有分类器的结果平均化,得到一个 bagging 分类器:

import numpy as np

α _t 是应用于每个分类器的权重

scores_ada = cross_val_score ( reg_ada, X, y, cv=6 )

融合分类器

for depth in [ 1,2,10 ] :

另外一个小诀窍是:任何试图将两个已经被很好地分类的数据点划分开的分类器都不会是最优的。我们甚至不需要对其进行计算。

Boosting 算法训练起来非常快,这太棒了。但是我们考虑到了所有树桩的可能性并且采用了递归的方法计算指数,为什么它还会训练地这么快?

强分类器

如上所述,通过在每轮迭代 t 中识别最佳弱分类器 ht(通常为具有 1 个节点和 2 片叶子的决策树来找到最佳划分。假设我们试图预测一个想借钱的人是否会是一个好的还款人:

from sklearn.model_selection import cross_val_score

reg_ada = AdaBoostClassifier ( DecisionTreeClassifier ( max_depth=1 ) )

研究人员已经针对 AdaBoost 是否会过拟合进行了深入的探讨。近来,AdaBoost 被证明在某些时候会发生过拟合现象,用户应该意识到这一点。同时,Adaboost 也可以作为回归算法使用。

X 包含长度为 64 的数组,它们代表了简单的 8x8 的平面图像。使用该数据集的目的是为了完成手写数字识别任务。下图为一个给定的手写数字的示例:

广东快乐10分预测 17

广东快乐10分预测 18

from sklearn.model_selection import cross_val_predict

自然而然地,下一步就应该是将这些分类器融合成一个符号分类器。根据某个数据点处于分割线的哪一侧,将其分类为 0 或 1。该过程可以通过如下方式实现:

现在,本文将带领读者快速浏览一个代码示例,看看如何在 Python 环境下使用 Adaboost 进行手写数字识别。

伪代码

y = dataset [ 'target' ]

在整个数据集上训练模型 h1

代码示例

动手编程试一下吧!

scores_ada = cross_val_score ( reg_ada, X, y, cv=6 )

出于这个原因,对 boosting 方法背后的直观想法是:

Z 是一个常数,其作用是对权重进行归一化,使得它们加起来等于 1!

我们可以对上面的情况做 12 种可能的「测试」。每条分割线边上的数字「2」简单地表示了这样一个事实:位于分割线某一侧的所有点都可能属于 0 类或 1 类。因此,每条分割线嵌入了 2 个「测试」。

我们如何才能实现这样的分类器呢?实际上,我们是通过在整个迭代过程中加权误差做到的。这样,我们将为之前分类器表现较差的区域赋予更大的权重。

广东快乐10分预测 19

广东快乐10分预测 20

Bagging 的局限性

在 Kaggle 及其它机器学习任务中,集成方法非常流行,不论是 XGBoost还是随机森林,它们都强大无比。而本文作者从最基础的 Boosting 概念到 AdaBoost 算法进行了详细的介绍,并展示了如何实现 AdaBoost,这些都是走进集成方法大家族的敲门砖。

AdaBoost

import matplotlib.pyplot as plt

广东快乐10分预测 21

每个模型需要重点关注之前的分类器表现不佳的地方。

决策树桩

Boosting 的概念细节

现在,神奇的地方来了!如果我们选择了恰当的 α _集成学习之AdaBoost广东快乐10分预测。t 和 Z,本该在每一步变化的权重将简化成如下的简单形式:

广东快乐10分预测 22

from sklearn.ensemble import AdaBoostClassifier

在人脸识别任务中,AdaBoost 被广泛用于评估视频中是否存在人脸。本文作者将就此话题在近期内撰写另外一篇文章!在后续文章中,还将介绍梯度增强方法!

广东快乐10分预测 23

最近,Boosting 技术在 Kaggle 竞赛以及其它预测分析任务中大行其道。本文将尽可能详细地介绍有关 Boosting 和 AdaBoost 的相关概念。

这个示例可以很好地起到说明作用,其中有一个分类器的结果是错误的,而另外两个分类器的结果是正确的。通过对分类器进行投票,你可以获得很高的分类准确率。但正如你可能会猜到的那样,bagging 机制有时并不能很好地起作用,这时所有的分类器都会在同一个区域内获得错误的分类结果。

对 h1 表现较差的区域的数据加权,并在这些数据上训练模型 h2

无需计算指数

Bagging 适用场景的示例

X = dataset [ 'data' ]

加权误差

reg_ada = AdaBoostClassifier ( DecisionTreeClassifier ( max_depth=depth ) )

from sklearn.tree import DecisionTreeClassifier

你发现了可能提升分类器性能的方法吗?

...

这是一个非常强的结论,这与权重应该随着迭代而变化的说法并不矛盾。因为错误分类的训练样本数量减少了,它们的总权重仍然是 0.5!

如果我们坚持使用深度为 1 的决策树分类器,以下是如何在这种情况下实现 AdaBoost 分类器:

上述想法可以诠释为:

只需注意,实际上,像这样的决策树分类器可能具备比简单的树桩更深的结构。这将会是一个超参数。

import pandas as pd

概念

通过为每个分类器加权,可以避免赋予不同的分类器相同的重要性。

加权后的误差

广东快乐10分预测 24

未加权的误差

本文将涉及:

Boosting 简介

接下来,我们不妨考虑一个二元分类问题。我们把一个观测结果分类为 0 或 1。尽管这并不是本文的目的,但是为了清晰起见,让我们回顾一下 Bagging 的概念。

让我们把到目前为止本文已经介绍过的内容总结在一段小小的伪代码中。

加权过程示例

其中需要记住的关键点是:

现在让我们对误差进行加权!

广东快乐10分预测 25

我们可以串行地训练这些模型,而不是并行训练。这是 Boosting 的本质!

在每一轮迭代 t 中,我们将选择能够最好地划分数据的弱分类器 ht,该分类器能够最大限度地降低整体误差率。回想一下,这里的误差率是一个经过加权修正之后的误差率版本,它考虑到了前面介绍的内容。

这样得到的分类准确率的结果应该约为 26%,还具有很大的提升空间。其中一个关键的参数是序列决策树分类器的深度。那么,决策树的深度如何变化才能提高分类准确率呢?

广东快乐10分预测 26

在这个简单的例子中,当决策树的深度为 10 时,分类器得到了最高的分类准确率 95.8%。

from sklearn.model_selection import learning_curve

bagging 的局限性

答案是所谓的「决策树桩」!决策树桩是指一个单层决策树。主要思想是,我们在每一步都要找到最好的树桩(即得到最佳的数据划分),它能够使整体的误差最小化。你可以将一个树桩看做一个测试,其中,我们假设位于树桩某一侧的所有数据点都属于 1 类,另一侧的所有数据点都属于 0 类。

Boosting 方法会随着时间的推移,通过调整误差度量来训练一系列低性能算法,称之为弱学习器。弱学习器指的是那些误差率略低于 50% 的算法,如下图所示:

实际上,本例中有 12 种树桩组合!这看起来可能有些令人惊讶,但其实很容易理解。

误差率略低于 50% 的弱分类器

广东快乐10分预测 27

boosting 的计算效率

广东快乐10分预测 28

找出最佳划分

首先,载入数据:

scores_ada.mean

融合分类器

dataset = load_digits

现在,你可能注意到了,我们对没有被很好地分类的数据点赋予了更高的权重。加权的过程如下图所示:

广东快乐10分预测 29

from sklearn.metrics import accuracy_score

score.append ( scores_ada.mean

12 个决策树桩

寻找最佳划分

from sklearn.datasets import load_digits

无需计算 α

你可能会问,我们需要实现多少个分类器才能让整个 Boosting 系统很好地工作呢?在每一步中如何选择分类器?

我们需要串行训练模型,而不是并行训练。

score = [ ]

本文由广东快乐10分预测发布于广东快乐10分预测,转载请注明出处:集成学习之AdaBoost广东快乐10分预测

关键词: 方法 机器学习 好用 机器