一、前言

拉普拉斯特征映射是一种基于图的降维算法,它希望在原空间中相互间有相似关系的点,在降维后的空间中尽可能的靠近,从而在降维后仍能保持原有的数据结构信息。

二、主要步骤

拉普拉斯特征映射通过构建邻接矩阵为 W W W(或叫相似矩阵)的图,来重构数据流形的局部结构特征。
主要思想是,如果两个数据样本 i i i 和 j j j 很相似,那么 i i i 和 j j j 在降维后子空间中应该与在原空间中一样,尽量接近。
假设数据实例的数目为 n n n,目标子空间的维数(即最终的降维目标的维度)为 m m m。定义 n × m n×m n×m 大小的矩阵 Y Y Y ,其中每一个行向量 y i T y_i^T yiT​ 是数据实例 i i i 在目标 m m m 维子空间中的向量表示(即降维后的数据实例 i i i )。 我们的目的是让相似或相近的数据样本 i i i 和 j j j 在降维后的目标子空间里仍旧尽量接近。
具体步骤如下图所示

1.确定拉普拉斯映射优化的目标函数: min ⁡ ∑ i , j ∥ y i − y j ∥ 2 W i j \min \sum_{i, j}\left\|y_{i}-y_{j}\right\|^{2} W_{i j} mini,j∑​∥yi​−yj​∥2Wij​
其中 W i j W_{i j} Wij​ 为构建邻接矩阵(或相似矩阵),距离较远的两个点之间的边权重值较低,而距离较近的两个点之间的边权重值较高, 采用全连接法高斯核计算公式如下:
w i j = e − ∥ x i − x j ∥ 2 2 2 σ 2 w_{i j}=e^{-\frac{\left\|x_{i}-x_{j}\right\|_{2}^{2}}{2 \sigma^2}} wij​=e−2σ2∥xi​−xj​∥22​​
2.目标函数优化
∑ i = 1 n ∑ j = 1 n ∥ y i − y j ∥ 2 W i j = ∑ i = 1 n ∑ j = 1 n ( y i T y i − 2 y i T y j + y j T y j ) W i j = ∑ i = 1 n ( ∑ j = 1 n W i j ) y i T y i + ∑ j = 1 n ( ∑ i = 1 n W i j ) y j T y j − 2 ∑ i = 1 n ∑ j = 1 n y i T y j W i j = 2 ∑ i = 1 n D i i y i T y i − 2 ∑ i = 1 n ∑ j = 1 n y i T y j W i j = 2 tr ⁡ ( Y T D Y ) − 2 tr ⁡ ( Y T W Y ) = 2 tr ⁡ [ Y T ( D − W ) Y ] = 2 tr ⁡ ( Y T L Y ) \begin{aligned} &\sum_{i=1}^{n} \sum_{j=1}^{n}\left\|y_{i}-y_{j}\right\|^{2} W_{i j} \\ &=\sum_{i=1}^{n} \sum_{j=1}^{n}\left(y_{i}^{T} y_{i}-2 y_{i}^{T} y_{j}+y_{j}^{T} y_{j}\right) W_{i j} \\ &=\sum_{i=1}^{n}\left(\sum_{j=1}^{n} W_{i j}\right) y_{i}^{T} y_{i}+\sum_{j=1}^{n}\left(\sum_{i=1}^{n} W_{i j}\right) y_{j}^{T} y_{j}-2 \sum_{i=1}^{n} \sum_{j=1}^{n} y_{i}^{T} y_{j} W_{i j} \\ &=2 \sum_{i=1}^{n} D_{i i} y_{i}^{T} y_{i}-2 \sum_{i=1}^{n} \sum_{j=1}^{n} y_{i}^{T} y_{j} W_{i j} \\ &=2 \operatorname{tr}\left(Y^{T} D Y\right)-2 \operatorname{tr}\left(Y^{T} W Y\right) \\ &=2 \operatorname{tr}\left[Y^{T}(D-W) Y\right] \\ &=2 \operatorname{tr}\left(Y^{T} L Y\right) \end{aligned} ​i=1∑n​j=1∑n​∥yi​−yj​∥2Wij​=i=1∑n​j=1∑n​(yiT​yi​−2yiT​yj​+yjT​yj​)Wij​=i=1∑n​(j=1∑n​Wij​)yiT​yi​+j=1∑n​(i=1∑n​Wij​)yjT​yj​−2i=1∑n​j=1∑n​yiT​yj​Wij​=2i=1∑n​Dii​yiT​yi​−2i=1∑n​j=1∑n​yiT​yj​Wij​=2tr(YTDY)−2tr(YTWY)=2tr[YT(D−W)Y]=2tr(YTLY)​
其中 W W W 是图的邻接矩阵,对角矩阵 D D D 是图的度矩阵( D i i = ∑ j = 1 n W i j D_{ii}=\sum_{j=1}^{n} W_{i j} Dii​=∑j=1n​Wij​ ), L = D − W L=D-W L=D−W 成为图的拉普拉斯矩阵。

变换后的拉普拉斯特征映射优化的目标函数如下:
min ⁡ trace ⁡ ( Y T L Y ) , s.t.  Y T D Y = I \min \operatorname{trace}\left(Y^{T} L Y\right), \quad \text { s.t. } Y^{T} D Y=I mintrace(YTLY), s.t. YTDY=I

其中限制条件 s . t . Y T D Y = I s.t. Y^{T} D Y=I s.t.YTDY=I 保证优化问题有解。

3.拉格朗日乘子法求解:
f ( Y ) = tr ⁡ ( Y T L Y ) + tr ⁡ [ Λ ( Y T D Y − I ) ] ∂ f ( Y ) ∂ Y = L Y + L T Y + D T Y Λ T + D Y Λ = 2 L Y + 2 D Y Λ = 0 ∴ L Y = − D Y Λ \begin{aligned} &f(Y)=\operatorname{tr}\left(Y^{T} L Y\right)+\operatorname{tr}\left[\Lambda\left(Y^{T} D Y-I\right)\right] \\ &\frac{\partial f(Y)}{\partial Y}=L Y+L^{T} Y+D^{T} Y \Lambda^{T}+D Y \Lambda =2 L Y+2 D Y \Lambda=0 \\ &\therefore L Y=-D Y \Lambda \end{aligned} ​f(Y)=tr(YTLY)+tr[Λ(YTDY−I)]∂Y∂f(Y)​=LY+LTY+DTYΛT+DYΛ=2LY+2DYΛ=0∴LY=−DYΛ​

最后为了目标函数最小化,要选择最小的 m m m 个特征值所对应的特征向量作为降维后的结果输出。

【流行学习】拉普拉斯映射(Laplacian Eigenmaps)相关推荐

  1. 图嵌入(拉普拉斯特征映射Laplacian Eigenmaps)

    图嵌入(Graph embedding)的意义 Graph广泛存在于真实世界的多种场景中,即节点和边的集合.比如社交网络中人与人之间的联系,生物中蛋白质相互作用以及通信网络中的IP地址之间的通信等等. ...

  2. Laplacian Eigenmaps与LPP(Locality Preserving Projections)简介

    一.拉普拉斯特征映射(Laplacian Eigenmaps) 1.Introduction 机器学习与模式识别的一个核心问题是找到一种合适的对复杂数据的表示. 我们把这个问题叫做数据低维流形的嵌入在 ...

  3. Laplacian Eigenmaps 拉普拉斯特征映射

    Laplacian Eigenmaps 继续写一点经典的降维算法,前面介绍了PCA,LDA,LLE,这里讲一讲Laplacian Eigenmaps.其实不是说每一个算法都比前面的好,而是每一个算法都 ...

  4. 机器学习降维算法四:Laplacian Eigenmaps 拉普拉斯特征映射

    继续写一点经典的降维算法,前面介绍了PCA,LDA,LLE,这里讲一讲Laplacian Eigenmaps. 其实不是说每一个算法都比前面的好,而是每一个算法都是从不同角度去看问题,因此解决问题的思 ...

  5. 拉普拉斯特征映射(Laplacian Eigenmaps)

    1.介绍 拉普拉斯特征映射(Laplacian Eigenmaps)是一种不太常见的降维算法,它看问题的角度和常见的降维算法不太相同,是从局部的角度去构建数据之间的关系.也许这样讲有些抽象,具体来讲, ...

  6. 四大机器学习降维算法:PCA、LDA、LLE、Laplacian Eigenmaps

    四大机器学习降维算法:PCA.LDA.LLE.Laplacian Eigenmaps 引言 机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中.降维的本质是学习 ...

  7. 流行学习Manifold Learning

    文章目录 1.流行学习前言: 2.流形学习的概念 流形的概念: 流行学习的概念: 3.流形学习的分类 4.高维数据降维与可视化 5.基本问题和个人观点 6.参考文献 1.流行学习前言: 流形学习是个很 ...

  8. 流行学习,比较好的一篇博客

    转载自:https://blog.csdn.net/sinat_32043495/article/details/78997758 嵌入在高维空间的低维流形 流形:局部具有欧几里得空间性质的空间 1. ...

  9. 流行学习简单入门与理解

    最近博主再看西瓜书第十三章半监督学习,文章中作者提到需要少量查询的主动学习.K-means簇的聚类,以及流行学习.对于流行学习,博主也是第一次接触,下面我们来简单学习和理解一下流行学习. 1. 半监督 ...

最新文章

  1. ServiceLoader跟DriverManager使用总结
  2. 一文攻破共用体-C语言
  3. linux操作系统使用论文_Linux高性能服务器设计
  4. LeetCode 161. 相隔为 1 的编辑距离(DP/遍历)
  5. Intel 64/x86_64/IA-32/x86处理器 - SIMD指令集 - SSE扩展(4) - 数据传输指令
  6. 直播将是所有企业必须做的
  7. 取消hover效果_CSS3 transition过渡动画效果
  8. 狼的故事9:共同的利益
  9. Linux程序设计 清空标准输入缓冲区
  10. 如何检测判断硅钢片性能牌号?
  11. 使用JAVA编程实现多人聊天室(多线程实践)
  12. 防止多次触发click事件
  13. 笔记本电脑同时连接内外网亲测有效
  14. 计算机存储器件中运行速度最快,选择题:下列存储器中,存取速度最快的是()...
  15. 展望未来 :今后十年可能诞生的21个新工作
  16. CSS3 弹性盒布局模型和布局原理
  17. PIcGo+Typora+Gitee
  18. 轮廓匹配---学习笔记
  19. 由百事引起的、关于五月天的 胡言乱语
  20. 初试429上岸大工软院-887专业课132

热门文章

  1. linux手机 电脑传文件怎么安装,如何在 Linux 下安装安卓文件传输助手
  2. UNIX下执行文件的减肥工具strip[转载]
  3. Unity3D学习(8)之射箭游戏
  4. 钢管的订购与运输matlab,钢管订购和运输优化模型
  5. find grep 用法总结
  6. pytorch 创建张量tensor
  7. 兰州理工大c语言成绩,中国甘肃网:第三轮学科评估结果公布 兰州理工大16门学科上榜...
  8. SpringBoot扩展机制——spring factories
  9. 电商后台设计:属性管理
  10. 浏览器如何更改定位位置-VMLogin指纹浏览器Geolocation经纬度设置