1.前言

这几天把支持向量机看了几次,从一开始碰到朦朦胧胧的感觉再到找了挺多资料看了后,现在也算是有所了解了,但是但让也存在有不太懂的地方,欢迎指出错误之处。因为SVM的内容还是很多并且也有难度,没那么容易懂,所以会打算花一些篇幅来记录我理解的思路和我发现的一些问题。

2.SVM

SVM是我们机器学习领域一个很重要并且很常用的分类回归算法,在很多场景下的SVM都是效果很好的。SVM名称为support vector mechine,直译过来就是支持向量机。看着这个名词也联想不到他的原理大概是做什么的,这要一点一点讲起。
实际上,支持向量机和我们的逻辑回归算法有相似之处,他们的出发点都是寻找一个合适的决策边界,以达到我们回归或者分类的效果。那他们既然为两种不同的算法,当然他们是有差异的:

(1).逻辑回归算法在找决策边界时找的是全局最优解,也就是说他考虑的是使得他的损失函数最小时的那个决策边界。
(2).考虑到我们若只考虑将样本合理分类,那么可能会出现不止一条符合这一要求的决策边界。这些决策边界中差异也是可能很大的。在SVM算法中,我们选择的是找这么一个有很强泛化能力的决策边界。也就是找一个决策边界,使得对于那些离决策边界最近的点来说,他们到决策边界的距离是最大的。 这是SVM算法与逻辑回归算法找决策边界的不同之处。

3.支持向量

这里先补充一下支持向量的概念:支持向量就是说针对于某一个决策边界,离这个决策边界最近的那些点。也就是上文所提到的那些距离要最大的点。

4.最大边缘超平面

最大边缘超平面,也就是maximal margin hyperplane,选择最大边缘超平面作为我们的决策边界,也是使得上图的margin值最大,同时也是d(支持向量到决策边界的距离)最大,margin = 2 * d。
最大边缘超平面的函数式是:

而这里基于,决策边界和支持向量也诞生了另外两个平面:

(1).Plus-plane:指的是上支持向量平面,是平行于决策边界且过支持向量的一个超平面:

(2).Minus-plane:指的是下支持向量平面:

5.为何我们选择的是边缘最大的超平面?

前面讲了,SVM正是从这个边缘最大化来找到最优解,也就是最优的决策边界。那为什么是最大的呢?又不是最小?这主要考虑的是模型的泛化能力。这里有两种解释:

解释1:我们决策边界的边缘越小,决策边界受数据影响越大,数据稍微有波动,对模型的分类结果有很大的影响
解释2:我们考虑模型额泛化能力,计算它的泛化误差,在统计学习中有一种方法就是SRM理论(structural risk minimization),又叫结构化风险最小理论

SRM理论:该理论给模型的繁华误差一个上界R,这个上界也就是模型的最坏情况,一定程度上反应模型的泛化能力。上界涉及训练误差Re,训练样本数,模型复杂度h(也就是模型能力)。分类器的泛化误差上界R<=Re+f(h),其中函数f(h)是个h的递增函数,也就是说复杂度越高f越大。
**那么这个上界说明,R受模型的训练误差和模型复杂度影响,若两者都高,则泛化误差就会很大,泛化能力差。**

根据SRM理论,我们想要选择的泛化能力高的模型(决策边界),如果决策边界边缘越小,模型更加灵活,更容易拟合训练数据,导致模型复杂度增大,模型的泛化误差上界就会很大,导致泛化能力差。 所以选择的是最大边缘超平面。

6.如何求SVM的最优解(第一部分)

根据SRM里面,我们需要找的是最大边缘超平面。我们要做的就是找到一个向量w和一个常数b,这样就构成了我们决策边界。对这个最优的决策边界的目标就是

(1).能将训练数据很好的划分
(2).最大化margin(支持向量到决策边界的距离要最大)

那么为了解决这两个目标,我们也从两个角度去考虑:

(1).我们找的这么一个决策边界中,对于正类的训练数据,都位于Plus-plane上或之上;对于负类的训练数据也相对应的在Minus-plane上或之下。在代数上就表示为训练数据点到决策边界的距离大于或等于支持向量到决策边界的距离d:

(2).要是margin最大化,也就是支持向量到决策边界的距离d最大化。d的公式如下:

这里的x值得是支持向量。我们先看看Plus-plane和Minus-plane这两个平面,我们可以通过如下转化:

这样就能得到


此时再看,因为支持向量是在Plus-plane和Minus-plane上,则满足上面两个式子,代入就为+1或者-1。那么d的分子就为1(原因d是支持向量影响的)。那d就变成了

最大化d也就转化为最小化w的模,也就等价于下列问题:

最终问题就转化为求一个最值问题,同时也是有限制条件的。

7.如何求SVM的最优解(第二部分)

对于上面分析,这不难发现是一个凸优化问题,也就是这个问题的局部最优解也就是全局最优解。

Step 1:

我们在解决这种有限制条件的多元极值问题中,是通过引入标准的拉格朗日乘子(Lagrange multiplier),也就是构造拉格朗日函数来解决。 首先构造拉格朗日函数:

通过求解这个拉格朗日函数的极值就是原方程的最优解。值得提醒的是此时的参数由原来的向量w和常数b,增加了一组拉格朗日乘子(λi,一个训练数据对应一个拉格朗日乘子)。

Step 2:

对这个拉格朗日函数,我们发现还不完整,原因是原本的最优化问题涉及的是不等式约束而非等式约束,此时我们要引入KKT条件(Karuch-Kuhn-Tucher)

这里KKT条件是通过引入拉格朗日乘子作为一个约束条件,把不等式约束转化为等式约束,只要限制拉格朗日乘子非负,这种变化就是可行的。

Step 3 :

加入了KKT条件,理论上是可以通过计算解出这个拉格朗日函数所对应的局部最优解的。但是,由于我们总共要解决的参数十分之多,包括向量w,常数b,还有一组拉格朗日乘子,此时计算解这个拉格朗日函数的代价是十分之大的。此时,我们通过转化对偶问题(dual problem) 来解决。

【这里补充一下我们是如何思考转化对偶拉格朗日这个问题:

找到原先拉格朗日函数的对偶函数,我们要消去一些变量,我们通过使用原拉格朗日函数对参数w和常数b进行求导:

解出两个参数的值:

把结果代入到原拉格朗日方程中得到对偶拉格朗日函数:

此时KKT条件也会发生变化:

现在就从找最小化原拉格朗日函数,转化为最大化对偶拉格朗日函数,这样做的优点是可以使得对偶拉格朗日函数中的参数数目变少,同时他们两个问题的最优解是等价的。

Step 4 :
再看对偶拉格朗日函数求极值,此时的参数就是一组拉格朗日乘子。后续工作就是利用数值计算技术来找出一组拉格朗日乘子,再用拉格朗日乘子代入下式求得w向量。

再代入KKT条件求出常数b:

8.记录一些SVM的个人理解

(1).为何叫支持向量机?这是因为我们选取的最优的决策边界是由支持向量来决定的。回看刚刚的参数计算过程,注意再求向量w参数时,我们先看KKT条件:

这里λi的取值只能等于0或者大于0 ,而在第一条KKT条件中,若第二个乘积项不为0(意味这个数据点不是支持向量)此时λi只能为0 ;若第二个乘积项为0(意味着这是支持向量),此时λi肯定不为0。
总结起来,就是支持向量的λi肯定不为0,非支持向量的λi一定为0 。
而通过λi代入下式求向量w:

不难发现λi为0时,也就是非支持向量时,这个累加项为0,对向量w无任何影响;反而λi不为0时,也就是支持向量,会决定了参数w的值。同理在计算b时也一样,所以我们说决策边界由支持向量所决定,因而称之为支持向量机。

数据挖掘学习--支持向量机SVM1相关推荐

  1. 【数据挖掘】数据挖掘简介 ( 6 个常用功能 | 数据挖掘结果判断 | 数据挖掘学习框架 | 数据挖掘分类 )

    文章目录 I . 数据挖掘 功能 II . 数据挖掘 结果判断 III . 数据挖掘 学习框架 IV . 数据挖掘 分类 I . 数据挖掘 功能 1 . 概念描述 ( Concept Descript ...

  2. python数据挖掘学习笔记】十九.鸢尾花数据集可视化、线性回归、决策树花样分析

    #2018-04-05 16:57:26 April Thursday the 14 week, the 095 day SZ SSMR python数据挖掘学习笔记]十九.鸢尾花数据集可视化.线性回 ...

  3. python数据挖掘学习笔记】十六.逻辑回归LogisticRegression分析鸢尾花数据

    但是很多时候数据是非线性的,所以这篇文章主要讲述逻辑回归及Sklearn机器学习包中的LogisticRegression算法 #2018-03-28 16:57:56 March Wednesday ...

  4. python数据挖掘学习】十五.Matplotlib调用imshow()函数绘制热图

    python数据挖掘学习]十五.Matplotlib调用imshow()函数绘制热图 #2018-03-28 14:47:19 March Wednesday the 13 week, the 087 ...

  5. python数据挖掘学习笔记】十四.Scipy调用curve_fit实现曲线拟合

    #2018-03-28 10:02:08 March Wednesday the 13 week, the 087 day SZ SSMR python数据挖掘学习笔记]十四.Scipy调用curve ...

  6. python数据挖掘学习笔记】十三.WordCloud词云配置过程及词频分析

    #2018-03-28 09:59:40 March Wednesday the 13 week, the 087 day SZ SSMR 11,12因为涉及到数据库被我暂时放弃了 python数据挖 ...

  7. python数据挖掘学习笔记】十.Pandas、Matplotlib、PCA绘图实用代码补充

    #2018-03-23 18:56:38 March Friday the 12 week, the 082 day SZ SSMR https://blog.csdn.net/eastmount/a ...

  8. Python数据挖掘学习笔记】九.回归模型LinearRegression简单分析氧化物数据

    #2018-03-23 16:26:20 March Friday the 12 week, the 082 day SZ SSMR [Python数据挖掘学习笔记]九.回归模型LinearRegre ...

  9. 数据挖掘学习笔记 5 线性回归知识及预测糖尿病实例

    #2018-03-21 16:45:01 March Wednesday the 12 week, the 080 day SZ SSMR http://blog.csdn.net/eastmount ...

最新文章

  1. Learn OpenGL (四):纹理
  2. Python 技术篇-获取requests里的二进制文本并保存为音频、图片文件,提取requests里的多媒体信息
  3. [BUUCTF-pwn]——picoctf_2018_leak_me(内涵peak小知识)
  4. 线程池和线程详细教程
  5. 万字详解|手撕 9大排序算法!
  6. 【语义分割】论文代码资料汇总
  7. 新手上路教程4_其他-视图-触发器
  8. bootstrap bootstraptable 固定列_BootStrapTable分页
  9. mongoose使用简记
  10. 【NLP】语义角色标注(Semantic Role Labelling)
  11. [JUC-2]AbstractQueuedSynchronizer源码分析
  12. IE7的web标准之道——5:(修正)上去了!终于上去了!
  13. 计算机硬件开票几个点,财务税控开票电脑装机配置清单和价格介绍
  14. 【转自52v6】教你如何走IPv6下载百…
  15. 观众直呼“让她恰”,B站内容如何有效撬动ROI增长?
  16. ssoj3991: 雪人(snowman)
  17. c语言中的output用法,OUTPUT 子句
  18. 关于海康威视预览图像报错误404的解决方案
  19. 【学习生涯】预科学习笔记
  20. Jquery鼠标点击后变色,点击另一个按钮颜色还原

热门文章

  1. 读《身边的逻辑学有感》
  2. 服装计算机辅助设计学什么,关于服装设计专业的计算机辅助设计课程教学思考-2019年精选文档...
  3. css 无限循环旋转
  4. 软件测试有哪些前景?
  5. 制作自定义CSDNBLOG皮肤
  6. windows系统安装jdk11
  7. Java并发学习----大三仔(自己归纳的有错误请指正)
  8. 09.Listener
  9. 配置服务器代理【setupProxy】代理http-proxy-middleware
  10. C#移动OA办公系统源码(基于微信企业号)