AdaBoost从原理到实现
一.引入
对于Adaboost,可以说是久闻大名,据说在Deep Learning出来之前,SVM和Adaboost是效果最好的 两个算法,而Adaboost是提升树(boosting tree),所谓“提升树”就是把“弱学习算法”提升(boost)为“强学习算法”(语自《统计学习方法》),而其中最具代表性的也就是Adaboost了,貌似Adaboost的结构还和Neural Network有几分神似,我倒没有深究过,不知道是不是有什么干货
二.过程
(from PRML)
这就是Adaboost的结构,最后的分类器YM是由数个弱分类器(weak classifier)组合而成的,相当于最后m个弱分类器来投票决定分类,而且每个弱分类器的“话语权”α不一样。
这里阐述下算法的具体过程:
1.初始化所有训练样例的权重为1 / N,其中N是样例数
2.for m=1,……M:
a).训练弱分类器ym(),使其最小化权重误差函数(weighted error function):
b)接下来计算该弱分类器的话语权α:
c)更新权重:
其中Zm:
是规范化因子,使所有w的和为1。(这里公式稍微有点乱)
3.得到最后的分类器:
三.原理
![](/assets/blank.gif)
![](/assets/blank.gif)
![](/assets/blank.gif)
![](/assets/blank.gif)
![](/assets/blank.gif)
![](/assets/blank.gif)
四.实现
![](http://static.blog.csdn.net/xheditor/xheditor_emot/default/wail.gif)
- # coding: UTF-8
- from __future__ import division
- import numpy as np
- import scipy as sp
- from weakclassify import WEAKC
- from dml.tool import sign
- class ADABC:
- def __init__(self,X,y,Weaker=WEAKC):
- '''''
- Weaker is a class of weak classifier
- It should have a train(self.W) method pass the weight parameter to train
- pred(test_set) method which return y formed by 1 or -1
- see detail in <统计学习方法>
- '''
- self.X=np.array(X)
- self.y=np.array(y)
- self.Weaker=Weaker
- self.sums=np.zeros(self.y.shape)
- self.W=np.ones((self.X.shape[1],1)).flatten(1)/self.X.shape[1]
- self.Q=0
- #print self.W
- def train(self,M=4):
- '''''
- M is the maximal Weaker classification
- '''
- self.G={}
- self.alpha={}
- for i in range(M):
- self.G.setdefault(i)
- self.alpha.setdefault(i)
- for i in range(M):
- self.G[i]=self.Weaker(self.X,self.y)
- e=self.G[i].train(self.W)
- #print self.G[i].t_val,self.G[i].t_b,e
- self.alpha[i]=1/2*np.log((1-e)/e)
- #print self.alpha[i]
- sg=self.G[i].pred(self.X)
- Z=self.W*np.exp(-self.alpha[i]*self.y*sg.transpose())
- self.W=(Z/Z.sum()).flatten(1)
- self.Q=i
- #print self.finalclassifer(i),'==========='
- if self.finalclassifer(i)==0:
- print i+1," weak classifier is enough to make the error to 0"
- break
- def finalclassifer(self,t):
- '''''
- the 1 to t weak classifer come together
- '''
- self.sums=self.sums+self.G[t].pred(self.X).flatten(1)*self.alpha[t]
- #print self.sums
- pre_y=sign(self.sums)
- #sums=np.zeros(self.y.shape)
- #for i in range(t+1):
- # sums=sums+self.G[i].pred(self.X).flatten(1)*self.alpha[i]
- # print sums
- #pre_y=sign(sums)
- t=(pre_y!=self.y).sum()
- return t
- def pred(self,test_set):
- sums=np.zeros(self.y.shape)
- for i in range(self.Q+1):
- sums=sums+self.G[i].pred(self.X).flatten(1)*self.alpha[i]
- #print sums
- pre_y=sign(sums)
- return pre_y
![](/assets/blank.gif)
![](/assets/blank.gif)
![](/assets/blank.gif)
![](/assets/blank.gif)
![](/assets/blank.gif)
![](http://static.blog.csdn.net/xheditor/xheditor_emot/default/laugh.gif)
Reference:
AdaBoost从原理到实现相关推荐
- Adaboost算法原理分析和实例+代码(简明易懂)
Adaboost算法原理分析和实例+代码(简明易懂) [尊重原创,转载请注明出处] http://blog.csdn.net/guyuealian/article/details/70995333 ...
- 机器学习-集成之AdaBoost算法原理及实战
Boosting和AdaBoost 简介 Bagging采用的是一种多个分类器简单评分的方式.而Boosting是和Bagging对应的一种将弱分类器组合成为强分类器的算法框架,它根据分类器学习误差率 ...
- Adaboost算法原理分析和实例+代码(转载)
[尊重原创,转载请注明出处] http://blog.csdn.net/guyuealian/article/details/70995333 本人最初了解AdaBoost算法着实是花了几天时 ...
- AdaBoost算法原理
AdaBoost算法原理 前言 1.AdaBoost(Adaptive Boosting)是boosting类算法最著名的代表. 2.Kearns 和 Valiant首先提出了"强可学习&q ...
- adaboost 算法 原理
Adaboost 算法 算法简介 (1)adaboost是有监督的分类算法 有监督 无监督的区别,直观来看,区别在于训练集中,是否需要包括因变量Y. 例如: 无监督算法 -- K-means聚类算法, ...
- Adaboost算法原理以及matlab代码实现(超详细)
一.AdaBoost简介 Boosting, 也称为增强学习或提升法,是一种重要的集成学习技术, 能够将预测精度仅比随机猜度略高的弱学习器增强为预测精度高的强学习器,这在直接构造强学习器非常困难的情况 ...
- Adaboost算法原理分析与实例
https://blog.csdn.net/u013630675/article/details/80037336
- Adaboost 算法的原理与推导
Adaboost 算法的原理与推导 0 引言 一直想写Adaboost来着,但迟迟未能动笔.其算法思想虽然简单:听取多人意见,最后综合决策,但一般书上对其算法的流程描述实在是过于晦涩.昨日11月1日下 ...
- Adaboost 算法的原理与推导(转载)
0 引言 一直想写Adaboost来着,但迟迟未能动笔.其算法思想虽然简单:听取多人意见,最后综合决策,但一般书上对其算法的流程描述实在是过于晦涩.昨日11月1日下午,在我组织的机器学习班 第8次课上 ...
最新文章
- ECharts 饼图绘制教程
- 安卓高手之路之 GDI图形引擎篇
- 21. Leetcode 203. 移除链表元素 (链表-基础操作类-删除链表的节点)
- 解决docker报错: ---> [Warning] IPv4 forwarding is disabled. Networking will not work.
- Pandas的学习(2.Series的索引和切片、基本概念以及Series的运算)
- Scala range reverse debug
- ajax中res和req,javascript – 来自AJAX调用的res.redirect
- android代码移除焦点,android-如何从单个editText移除焦点
- Kali Linux 无线渗透测试入门指南 翻译完成!
- AOJ-759 会绕圈的数
- 属性篇(4)—If you love css …
- 电脑一直自动输入一个字符
- 3Dmax建模教程详细步骤3D建模速成入门到高级教程 小白必看
- 两个对象值相同(x.equals(y) == true),但却可有不同的hashCode,这句话对不对?
- 1082 射击比赛(JAVA)
- 微信企业号开发源码Java编写,懒人开发一键式部署项目,WeChatEnterprise框架你值得拥有
- 04 vue3 scss 组件component kepp-alive缓存子组件 nextTick
- java进阶基础---2.3---IO流的概念及示例
- 抽象类 [Java]
- 输入数字N,然后输入N个数,计算这N个数的和。