先介绍一下奇异值分解,也称为谱分解
A=UΣVTA = U\Sigma V^T A=UΣVT
这里UUU称为左奇异向量,VVV称为右奇异向量,Σ\SigmaΣ为奇异矩阵。
奇异值分解常常用来做低秩逼近,也就是保留最大的前r个奇异值以及特征向量,作为在秩为r时的最佳逼近
T=AV=UΣ=[t1,…,tr]Ar=t1v1T+⋯+trvrT=λ1u1v1T+⋯+λrurvrTT = AV =U\Sigma= [t_1,\dots,t_r] \\A_r = t_1v_1^T+\dots+t_rv_r^T=\lambda_1u_1v_1^T+\dots+\lambda_ru_rv_r^T T=AV=UΣ=[t1​,…,tr​]Ar​=t1​v1T​+⋯+tr​vrT​=λ1​u1​v1T​+⋯+λr​ur​vrT​
λ\lambdaλ为奇异值,TTT为得分矩阵,我们可以看到奇异分解的特殊性,那就是V即使权值矩阵,又是载荷矩阵,这是因为V满足如下特点
viTvj={0i≠j1i=jviTATAvj={0i≠jλi2i=jv_i^Tv_j = \left\{\begin{matrix} 0& i\neq j\\ 1&i = j \\ \end{matrix}\right. \ \ \ \ v_i^TA^TAv_j = \left\{\begin{matrix} 0& i\neq j\\ \lambda_i^2&i = j \\ \end{matrix}\right. viT​vj​={01​i​=ji=j​    viT​ATAvj​={0λi2​​i​=ji=j​
由此,我们可以看到,当i≠j,viTvj=viTATAvj=tiTtj=0i \neq j,v_i^Tv_j=v_i^TA^TAv_j=t_i^Tt_j=0i​=j,viT​vj​=viT​ATAvj​=tiT​tj​=0,viv_ivi​和vjv_jvj​既正交又共轭。

好了,下面可以看看偏最小二乘法的w和p,为何两者是不同呢,原因是如果w=p,那么无法保证tit_iti​和tjt_jtj​正交
以下均假定i≠ji \neq ji​=j
为了简化问题,只讨论在单变量的情况,存在如下关系
wi=Xi−1Ty/∣∣Xi−1Ty∣∣ti=Xi−1wiwiTwj=0w_i = X_{i-1}^Ty/||X_{i-1}^Ty||\\ t_i = X_{i-1}w_i\\ w_i^Tw_j = 0 wi​=Xi−1T​y/∣∣Xi−1T​y∣∣ti​=Xi−1​wi​wiT​wj​=0
假设w=pw=pw=p,则有Xi=Xi−1−tiwiTX_{i} = X_{i-1}-t_iw_i^TXi​=Xi−1​−ti​wiT​
考查t1t_1t1​和t2t_2t2​之间的关系
t1Tt2=w1TX0TX1w2=w1TX0T(X0−t1w1T)w2=w1TX0TX0w2t_1^Tt_2 = w_1^TX_0^TX_1w_2=w_1^TX_0^T(X_0-t_1w_1^T)w_2 =w_1^TX_0^TX_0w_2 t1T​t2​=w1T​X0T​X1​w2​=w1T​X0T​(X0​−t1​w1T​)w2​=w1T​X0T​X0​w2​
按照前面的讨论,如果w1w_1w1​和w2w_2w2​属于X0TX0X_0^TX_0X0T​X0​的特征向量的话,那么没问题。但是显然根据wiw_iwi​的生成方式,并不满足这个条件。所以不能以此作为载荷。
按照最小二乘法得到pi=Xi−1T∗ti/(tiTti)p_i = X_{i-1}^T*t_i/(t_i^Tt_i)pi​=Xi−1T​∗ti​/(tiT​ti​)
那么有
piTwi=tiTXi−1∗wi/(tiTti)=1p_i^Tw_i = t_i^TX_{i-1}*w_i/(t_i^Tt_i) = 1 piT​wi​=tiT​Xi−1​∗wi​/(tiT​ti​)=1
由于wiw_iwi​是单位向量,这意为着pip_ipi​在wiw_iwi​上的投影为1,所有pi=wi+wi⊥p_i = w_i+w_i^\perppi​=wi​+wi⊥​,wi⊥w_i^\perpwi⊥​表示正交于wiw_iwi​的部分,这部分内容的增加使得tit_iti​和tjt_jtj​正交成立。

偏最小二乘法中的权值w和载荷p相关推荐

  1. PLS中的权值和载荷

    很多人学习PLS之前是从PCR入手的,我个人认为这是PLS不错的打开方式,PCR和PLS主要区别是两者在权值W的选择上有本质的区别. PCR的权值选择是基于X本身的特征向量,而PLS则根据X'Y的特征 ...

  2. 如何理解CNN中的权值共享

    记录一下深度学习中CNN中的权值共享 首先,卷积网络的核心思想是将:局部感受野.权值共享(或者权值复制)以及时间或空间亚采样这三种结构思想结合起来获得了某种程度的位移.尺度.形变不变性. 通俗理解,所 ...

  3. java二叉树求权值_二叉树中的权值是什么?

    展开全部 二叉树中的权值就是对叶子结点赋予的一个有意义的数量值. 一棵深度为k,且有2^k-1个节点的二叉树,32313133353236313431303231363533e58685e5aeb93 ...

  4. 求在整数序列A中连续权值最大的子序列的权值

    题目描述 给定整数序列A. 求在整数序列A中连续权值最大的子序列的权值. 输入描述: 第一行输入整数n.(1<=n<=1000) 第二行输入n整数a.(-1000<=a<=10 ...

  5. BP算法,用梯度下降法更新权值W与偏置项b

    Bp算法实际是输出的误差函数对每一个参数求导,输出层可以直接求出,非输出层则有链式法则求导.这里以上图5层神经网络为例进行说明. 一   符号说明: 1)这里使用激活函数为sigmoid函数:     ...

  6. 卷积神经网络中的权值共享

    一.起源 权值共享这个词最开始其实是由LeNet5模型提出来,在1998年,LeCun发布了LeNet网络架构 其实权值共享这个词说全了就是整张图片在使用同一个卷积核内的参数,比如一个3*3*1的卷积 ...

  7. 神经网络中的权值共享

    2012年的AlexNet网络是深度学习的开端,但是CNN的开端最早其实可以追溯到LeNet5模型,它的几个特性在2010年初的卷积神经网络研究中被广泛的使用--其中一个就是权值共享. 神经网络的输入 ...

  8. 如何理解卷积神经网络中的权值共享

    权值共享这个词最开始其实是由LeNet5模型提出来,在1998年,LeCun发布了LeNet网络架构,就是下面这个: 虽然现在大多数的说法是2012年的AlexNet网络是深度学习的开端,但是CNN的 ...

  9. 理解卷积神经网络中的权值共享

    首先介绍单层网络实行的权重共享袁力介绍 简单从共享的角度来说:权重共享即filter的值共享 卷积神经网络两大核心思想: 1.网络局部连接(Local Connectivity) 2.卷积核参数共享( ...

最新文章

  1. 终于有人站出来为程序员说话了
  2. linux与windos 设置 tomcat 内存
  3. 风云编程python-动态排名可视化 | 带你领略编程语言20年风云变化
  4. ckplayer---vue
  5. tensorflow随笔-tf.decode_csv
  6. 3.Factory Method 工厂方法模式(创建型模式)
  7. AcWing 831. KMP字符串(模板)
  8. 日语python怎么说_python+Mecab,一次性学会日语分词
  9. cordova 实现网页缓存_如何解决ionic,cordova混合开发的app缓存大的问题
  10. 笨办法学 Python · 续 引言
  11. Atitit.一些公司的开源项目 重大知名开源项目attilax总结
  12. Hadoop安装教程(Hadoop3.3.1版本),centos7系统,避免踩坑
  13. pdf复制文字时对于回车的处理
  14. 集成海康威视Sadp SDK实现设备激活
  15. 【Delphi】Delphi11.1 版本 Android SDK 更新步骤
  16. day01 继承、抽象类和模板设计模式
  17. 重磅出击: Rancher 2.4.x 迁移自定义 k8s 集群
  18. layui多选下拉框,多选
  19. 教育培训行业使用CRM管理系统有什么好处
  20. lambda-view: JS源码阅读工具

热门文章

  1. 计算机保研要不要刷实习?
  2. 罕见!谷歌员工成立工会,国外网友:员工维权行动已席卷硅谷!
  3. 案例1:人生重开模拟器(Python)——直接带你入门~
  4. 学生每日计划表_中学生时间计划表
  5. 什么是你的高光时刻?
  6. 3级网络技术第一套题
  7. 神经网络理论及其应用,神经网络的原理和应用
  8. pdf 分形 张济忠_分形 第二版 [张济忠 编著] 2011年版
  9. 卧式组合机床设计(论文 CAD图纸 开题报告 任务书……)
  10. 走了!再无百年阿里~