一.引入

对于Adaboost,可以说是久闻大名,据说在Deep Learning出来之前,SVM和Adaboost是效果最好的 两个算法,而Adaboost是提升树(boosting tree),所谓“提升树”就是把“弱学习算法”提升(boost)为“强学习算法”(语自《统计学习方法》),而其中最具代表性的也就是Adaboost了,貌似Adaboost的结构还和Neural Network有几分神似,我倒没有深究过,不知道是不是有什么干货

二.过程

(from PRML)

这就是Adaboost的结构,最后的分类器YM是由数个弱分类器(weak classifier)组合而成的,相当于最后m个弱分类器来投票决定分类,而且每个弱分类器的“话语权”α不一样。

这里阐述下算法的具体过程:

1.初始化所有训练样例的权重为1 / N,其中N是样例数

2.for m=1,……M:

a).训练弱分类器ym(),使其最小化权重误差函数(weighted error function):

b)接下来计算该弱分类器的话语权α:

c)更新权重:

其中Zm:

是规范化因子,使所有w的和为1。(这里公式稍微有点乱)

3.得到最后的分类器:

三.原理

可以看到整个过程就是和最上面那张图一样,前一个分类器改变权重w,同时组成最后的分类器
如果一个训练样例 在前一个分类其中被误分,那么它的权重会被加重,相应地,被正确分类的样例的权重会降低
使得下一个分类器 会更在意被误分的样例,那么其中那些α和w的更新是怎么来的呢?
下面我们从前项分步算法模型的角度来看看Adaboost:
直接将前项分步加法模型具体到adaboost上:
其中 fm是前m个分类器的结合
此时我们要最小化E,同时要考虑α和yl,
但现在我们假设前m-1个α和y都已经fixed了:那么
其中,可以被看做一个常量,因为它里面没有αm和ym:
接下来:
其中Tm表示正分类的集合,Mm表示误分类的集合,这一步其实就是把上面那个式子拆开,没什么复杂的东西
然后就是找ym了,就是最小化下式的过程,其实就是我们训练弱分类器
有了ym,α也就可以找了,然后继续就可以找到更新w的公式了(注意这里得到的w公式是没有加规范化因子Z的公式,为了计算方便我们加了个Z进去)
因为这里算出来直接就是上面过程里的公式,就不再赘述了,有兴趣你可以自己算一算         

四.实现

终于到实现了,本次实现代码基本基于《统计学习方法》,比如有些符号(弱分类器是G(x),训练样例的目标是y而不是上文所述的t)差异
所有的代码你可以在我写的toy toolkit里面找到:DML (你都看到这了,给个star好不好)
[python] view plain
  1. # coding: UTF-8
  2. from __future__ import division
  3. import numpy as np
  4. import scipy as sp
  5. from weakclassify import WEAKC
  6. from dml.tool import sign
  7. class ADABC:
  8. def __init__(self,X,y,Weaker=WEAKC):
  9. '''''
  10. Weaker is a class of weak classifier
  11. It should have a    train(self.W) method pass the weight parameter to train
  12. pred(test_set) method which return y formed by 1 or -1
  13. see detail in <统计学习方法>
  14. '''
  15. self.X=np.array(X)
  16. self.y=np.array(y)
  17. self.Weaker=Weaker
  18. self.sums=np.zeros(self.y.shape)
  19. self.W=np.ones((self.X.shape[1],1)).flatten(1)/self.X.shape[1]
  20. self.Q=0
  21. #print self.W
  22. def train(self,M=4):
  23. '''''
  24. M is the maximal Weaker classification
  25. '''
  26. self.G={}
  27. self.alpha={}
  28. for i in range(M):
  29. self.G.setdefault(i)
  30. self.alpha.setdefault(i)
  31. for i in range(M):
  32. self.G[i]=self.Weaker(self.X,self.y)
  33. e=self.G[i].train(self.W)
  34. #print self.G[i].t_val,self.G[i].t_b,e
  35. self.alpha[i]=1/2*np.log((1-e)/e)
  36. #print self.alpha[i]
  37. sg=self.G[i].pred(self.X)
  38. Z=self.W*np.exp(-self.alpha[i]*self.y*sg.transpose())
  39. self.W=(Z/Z.sum()).flatten(1)
  40. self.Q=i
  41. #print self.finalclassifer(i),'==========='
  42. if self.finalclassifer(i)==0:
  43. print i+1," weak classifier is enough to  make the error to 0"
  44. break
  45. def finalclassifer(self,t):
  46. '''''
  47. the 1 to t weak classifer come together
  48. '''
  49. self.sums=self.sums+self.G[t].pred(self.X).flatten(1)*self.alpha[t]
  50. #print self.sums
  51. pre_y=sign(self.sums)
  52. #sums=np.zeros(self.y.shape)
  53. #for i in range(t+1):
  54. #   sums=sums+self.G[i].pred(self.X).flatten(1)*self.alpha[i]
  55. #   print sums
  56. #pre_y=sign(sums)
  57. t=(pre_y!=self.y).sum()
  58. return t
  59. def pred(self,test_set):
  60. sums=np.zeros(self.y.shape)
  61. for i in range(self.Q+1):
  62. sums=sums+self.G[i].pred(self.X).flatten(1)*self.alpha[i]
  63. #print sums
  64. pre_y=sign(sums)
  65. return pre_y
看train里面的过程和上文 阐述的一模一样,finalclassifier()函数是用来判断是否已经无误分类的点 的
当然这里用的Weak Classifier是比较基础的Decision Stump,是根据x>v和x<v来分类的,这个代码稍微烦一点,就不贴到这里了,在DML里也有
先试验下《统计学习方法》里面那个最简单的例子:
可以看到也是三个分类器就没有误分点了,权值的选择也是差不多的
其中后面那个-1 表示大于threshold分为负类,小于分为正类。1则相反
加一些其它数据试试:
结果:
我们把图画出来就是:
基本还是正确的,这是四个子分类器的图,不是最后总分类器的图啊~~~
(实验的代码你也可以在DML里面找到,你都看到这了,给个star好不好~~~~~

Reference:

【1】 《Pattern Recognition And Machine Learning》
【2】 《统计学习方法》

AdaBoost从原理到实现相关推荐

  1. Adaboost算法原理分析和实例+代码(简明易懂)

    Adaboost算法原理分析和实例+代码(简明易懂) [尊重原创,转载请注明出处] http://blog.csdn.net/guyuealian/article/details/70995333   ...

  2. 机器学习-集成之AdaBoost算法原理及实战

    Boosting和AdaBoost 简介 Bagging采用的是一种多个分类器简单评分的方式.而Boosting是和Bagging对应的一种将弱分类器组合成为强分类器的算法框架,它根据分类器学习误差率 ...

  3. Adaboost算法原理分析和实例+代码(转载)

    [尊重原创,转载请注明出处] http://blog.csdn.net/guyuealian/article/details/70995333     本人最初了解AdaBoost算法着实是花了几天时 ...

  4. AdaBoost算法原理

    AdaBoost算法原理 前言 1.AdaBoost(Adaptive Boosting)是boosting类算法最著名的代表. 2.Kearns 和 Valiant首先提出了"强可学习&q ...

  5. adaboost 算法 原理

    Adaboost 算法 算法简介 (1)adaboost是有监督的分类算法 有监督 无监督的区别,直观来看,区别在于训练集中,是否需要包括因变量Y. 例如: 无监督算法 -- K-means聚类算法, ...

  6. Adaboost算法原理以及matlab代码实现(超详细)

    一.AdaBoost简介 Boosting, 也称为增强学习或提升法,是一种重要的集成学习技术, 能够将预测精度仅比随机猜度略高的弱学习器增强为预测精度高的强学习器,这在直接构造强学习器非常困难的情况 ...

  7. Adaboost算法原理分析与实例

    https://blog.csdn.net/u013630675/article/details/80037336

  8. Adaboost 算法的原理与推导

    Adaboost 算法的原理与推导 0 引言 一直想写Adaboost来着,但迟迟未能动笔.其算法思想虽然简单:听取多人意见,最后综合决策,但一般书上对其算法的流程描述实在是过于晦涩.昨日11月1日下 ...

  9. Adaboost 算法的原理与推导(转载)

    0 引言 一直想写Adaboost来着,但迟迟未能动笔.其算法思想虽然简单:听取多人意见,最后综合决策,但一般书上对其算法的流程描述实在是过于晦涩.昨日11月1日下午,在我组织的机器学习班 第8次课上 ...

最新文章

  1. ECharts 饼图绘制教程
  2. 安卓高手之路之 GDI图形引擎篇
  3. 21. Leetcode 203. 移除链表元素 (链表-基础操作类-删除链表的节点)
  4. 解决docker报错: ---> [Warning] IPv4 forwarding is disabled. Networking will not work.
  5. Pandas的学习(2.Series的索引和切片、基本概念以及Series的运算)
  6. Scala range reverse debug
  7. ajax中res和req,javascript – 来自AJAX调用的res.redirect
  8. android代码移除焦点,android-如何从单个editText移除焦点
  9. Kali Linux 无线渗透测试入门指南 翻译完成!
  10. AOJ-759 会绕圈的数
  11. 属性篇(4)—If you love css …
  12. 电脑一直自动输入一个字符
  13. 3Dmax建模教程详细步骤3D建模速成入门到高级教程 小白必看
  14. 两个对象值相同(x.equals(y) == true),但却可有不同的hashCode,这句话对不对?
  15. 1082 射击比赛(JAVA)
  16. 微信企业号开发源码Java编写,懒人开发一键式部署项目,WeChatEnterprise框架你值得拥有
  17. 04 vue3 scss 组件component kepp-alive缓存子组件 nextTick
  18. java进阶基础---2.3---IO流的概念及示例
  19. 抽象类 [Java]
  20. 输入数字N,然后输入N个数,计算这N个数的和。

热门文章

  1. [牛客竞赛]rin和快速迭代
  2. SpringBoot集成activiti工作流
  3. 擦亮老字号!遵义产区助力酒企高质量发展再出新举措
  4. 回国两年小结,我所见到的是海阔天空 【董可人】
  5. php decimal类型,有关decimal类型的文章推荐10篇
  6. [生信]biomaRt 基因ID的转换
  7. node JS 之web服务器搭建,续
  8. 实现 Cloneable接口深度克隆对象
  9. 数据挖掘 贝叶斯网络
  10. 情人节表白代码【爱你到天荒地老】