PLS中的权值和载荷
很多人学习PLS之前是从PCR入手的,我个人认为这是PLS不错的打开方式,PCR和PLS主要区别是两者在权值W的选择上有本质的区别。
PCR的权值选择是基于X本身的特征向量,而PLS则根据X‘Y的特征向量来选择。PLS早在80年代就已经提出来,当时计算特征向量并不像今天这么容易,随便调用一个SVD就行。当时求特征向量是通过幂法得到,所以,在PCR和PLS中都能找到NIPALS算法,这个迭代算法主要是用于计算特征向量。事实上,今天我们调用的SVD算法仍然是基于这种办法,只不过做了很多改进,我们也无需去关注算法的原理与细节,只要得到我们想要的结果即可。
我们都知道,PCR让人很舒服的地方在于权值和载荷是一样的,我们先看一些SVD分解
W是酋矩阵,对于PCR来说,W是X的各个特征向量,同时它各个成分是相互正交,这就保证了每一个得分与后面残差保持了正交的关系。
对于任意都满足以下条件
由于V是的特征向量
由于W=V,则有
满足相互正交,且关于
共轭正交,这也保证了每一个得分与其之后的残差矩阵保持正交的关系。
然而对于PLS而言,就没那么幸运了。举例而言,PLS1为例,,可以看出,这个权值其实正比于X和y的协方差,它基本上不是
的特征向量。说到这里,理由还并不充分。
因为对于PLS而言 ,
姑且查看的关系
从求权值的过程来看,显然都不是
的特征向量,所以其正交的可能性不大,并非说一定不可能,由上式可以得到
欲令上式等于0,只要满足,由此得到
,是不是很眼熟,这不正是载荷p的转置吗。好了,上面说了这么多,就是为了说明为什么载荷不能直接用权值代替的原因,说得不是特别透彻,大致应该可以理解了。
那么p之间是否存在正交的关系呢,答案是否定的。对于不同的p向量,则有如下关系
我们只需要观察是否为0,从形式来看,t显然不是
的特征向量,所以难以保证上式为0,但并非说一定不为0
由于t一直在E0的列空间内,所以t在E0空间上的投影还是自身,因此有
由此可以推得
p关于空间是正交的,也称为共轭正交
到了这里,我们对于p和w之间已经有了不少的认识,下面总结一下p和w之间的关系
当i相同时,p在w上投影值为单位长度1,注意到,这二者存在什么关系呢
将p分解为w的投影部分和正交部分
计算p的投影部分 ,由此可见,p包含了两部分内容,正交部分刚好弥补了w的不足
在展开w和p的关系前,先讨论了一下E和w之间的关系
对于任意j>i
由上述可以得到
有了这些信息,后面可以就p和w之间接着展开讨论
当j>i时,则有
也就是说权值w与后续的载荷p是其正交的。w和p的关系就说到这里了,以后有想到再补充。
后记: 经过一段时间对PLS的继续学习,理解更加深入后,对w和p重新做了一段整理,详情见该文章
https://blog.csdn.net/billy145533/article/details/103482611
参考
主元分析与偏最小二乘法
PLS中的权值和载荷相关推荐
- 基于Python(sklearn)计算PLS中的VIP值
基于Python(sklearn)计算PLS中的VIP值 sklearn中PLS回归模型并没有计算VIP值的方法,但VIP又是很重要的筛选变量方法.下附代码思路与完整代码,若有错误,万望指正. 1.首 ...
- 如何理解CNN中的权值共享
记录一下深度学习中CNN中的权值共享 首先,卷积网络的核心思想是将:局部感受野.权值共享(或者权值复制)以及时间或空间亚采样这三种结构思想结合起来获得了某种程度的位移.尺度.形变不变性. 通俗理解,所 ...
- java二叉树求权值_二叉树中的权值是什么?
展开全部 二叉树中的权值就是对叶子结点赋予的一个有意义的数量值. 一棵深度为k,且有2^k-1个节点的二叉树,32313133353236313431303231363533e58685e5aeb93 ...
- 求在整数序列A中连续权值最大的子序列的权值
题目描述 给定整数序列A. 求在整数序列A中连续权值最大的子序列的权值. 输入描述: 第一行输入整数n.(1<=n<=1000) 第二行输入n整数a.(-1000<=a<=10 ...
- 偏最小二乘法中的权值w和载荷p
先介绍一下奇异值分解,也称为谱分解 A=UΣVTA = U\Sigma V^T A=UΣVT 这里UUU称为左奇异向量,VVV称为右奇异向量,Σ\SigmaΣ为奇异矩阵. 奇异值分解常常用来做低秩逼近 ...
- 卷积神经网络中的权值共享
一.起源 权值共享这个词最开始其实是由LeNet5模型提出来,在1998年,LeCun发布了LeNet网络架构 其实权值共享这个词说全了就是整张图片在使用同一个卷积核内的参数,比如一个3*3*1的卷积 ...
- 神经网络中的权值共享
2012年的AlexNet网络是深度学习的开端,但是CNN的开端最早其实可以追溯到LeNet5模型,它的几个特性在2010年初的卷积神经网络研究中被广泛的使用--其中一个就是权值共享. 神经网络的输入 ...
- 如何理解卷积神经网络中的权值共享
权值共享这个词最开始其实是由LeNet5模型提出来,在1998年,LeCun发布了LeNet网络架构,就是下面这个: 虽然现在大多数的说法是2012年的AlexNet网络是深度学习的开端,但是CNN的 ...
- 理解卷积神经网络中的权值共享
首先介绍单层网络实行的权重共享袁力介绍 简单从共享的角度来说:权重共享即filter的值共享 卷积神经网络两大核心思想: 1.网络局部连接(Local Connectivity) 2.卷积核参数共享( ...
最新文章
- c# redis 如何设置过期时间_Redis Hash存储token、及设置过期时间
- CentOS7.3下二进制安装Kubernetes1.9集群 开启TLS
- 1.mysql数据库安装不成功的解决方案
- IE JS关闭窗口不提示的方法
- Java与MySQL连接报错_java连接数据库报错(
- setState的异步,同步以及合并
- php判断简写,怎么简写php 中的三元运算符
- 后台json返回给ajax,Ajax 如何 得到后台返回 的json数据,正确的格式应该如何去写?...
- 高质量C/C++编程指南
- 多色复古毕业论文答辩PPT模板——办公资源网
- Mac安装homebrew,postman,charles,switchhost
- centos7 文件系统修复
- 前端vs图片 3 jpg、png、gif 图片老三样系统总结
- 18岁开始学习编程是否来得及?
- STM32F103高级定时器死区时间计算
- java中事件监听是什么意思_Java的事件监听器学习心得
- Latex中subfloat设置子图标题字体大小
- 4-1蚁群算法(ACO)原理
- 固定资产管理系统怎么选,详细评测为你解答
- 音乐音频 | openSMILE提取音频需要掌握的知识
热门文章
- 详解JavaScript三元运算符的使用方法
- spring-boot-maven-plugin:3.0.0:repackage 报错原因
- java 复制图片到剪切板
- 给定单链表L:L0→L1→...→Ln-1→Ln, 重新排序:L0→Ln→L1→Ln-1→L2→Ln-2→...
- 【安信可A9G专题②】A9G在微信公众号上的定位功能笔记分享;
- Win10提示无法更新安装,怎么解决
- 电子秤专用模拟数字(AD)转换器芯片HX711介绍
- 当前主流的小型嵌入式GUI有哪些?
- Java related——Tomcat安装教程(赶快拥有一只自己的汤姆猫吧)
- cannot find coclass for interface....解决方法