数据样本中心化:

1、对一维随机变量 x x x,有n个观测样本 { x 1 , x 2 , ⋯ , x n } \{ x^1,x^2,\cdots,x^n\} {x1,x2,⋯,xn},其样本均值(期望)可定义为:
μ x = E ( x ) = 1 n ∑ i = 0 n x i \mu_x={E}\left(x\right)=\frac1n\sum_{i=0}^nx^i μx​=E(x)=n1​i=0∑n​xi这样,中心化操作后的新样本为: z i = x i − μ x z^{i}=x^i-\mu_x zi=xi−μx​,并且 ∑ i n z i = 0 \sum_i^nz^i=0 ∑in​zi=0
2、对于m维随机变量(特征、属性),定义随机向量
x = [ x 1 x 2 ⋮ x m ] , x ∈ R m , 这 里 x i 为 第 i 个 随 机 变 量 \pmb x=\begin{bmatrix} x_1 \\ x_2 \\ \vdots\\ x_m \\ \end{bmatrix} ,\pmb x \in R^m,这里x_i 为第i个随机变量 xxx=⎣⎢⎢⎢⎡​x1​x2​⋮xm​​⎦⎥⎥⎥⎤​,xxx∈Rm,这里xi​为第i个随机变量这里,再对m个随机变量的n个观测样本 { x i ∈ R m ∣ i = 1 , 2 , ⋯ , n } \{\pmb x^i\in R^m|i=1,2,\cdots,n\} {xxxi∈Rm∣i=1,2,⋯,n} 定义样本矩阵:
X = [ x 1 x 2 ⋯ x n ] = [ x 1 1 x 1 2 ⋯ x 1 n x 2 1 x 2 2 ⋯ x 2 n ⋮ ⋮ ⋱ ⋮ x m 1 x m 2 ⋯ x m n ] , X ∈ R m × n X=\begin{bmatrix} \pmb x^1 & \pmb x^2&\cdots & \pmb x^n \end{bmatrix}= \begin{bmatrix} x_1^1&x_1^2&\cdots&x_1^n\\ x_2^1&x_2^2&\cdots&x_2^n\\ \vdots&\vdots&\ddots&\vdots&\\ x_m^1&x_m^2&\cdots&x_m^n \end{bmatrix} ,X \in R^{m\times n} X=[xxx1​xxx2​⋯​xxxn​]=⎣⎢⎢⎢⎡​x11​x21​⋮xm1​​x12​x22​⋮xm2​​⋯⋯⋱⋯​x1n​x2n​⋮xmn​​​⎦⎥⎥⎥⎤​,X∈Rm×n
x j i x^i_j xji​表示第 i i i个样本在第 j j j个随机变量(特征、属性)上的取值。 这样,定义均值向量
μ x = E ( x ) = [ E ( x 1 ) E ( x 2 ) ⋮ E ( x m ) ] = 1 n [ ∑ i n x 1 i ∑ i n x 2 i ⋮ ∑ i n x m i ] = [ μ x 1 μ x 2 ⋮ μ x m ] \pmb {\mu_x}=E(\pmb x)=\begin{bmatrix} E(x_1) \\ E(x_2 ) \\ \vdots\\ E( x_m) \\ \end{bmatrix} =\frac 1n\begin{bmatrix} \sum_i^nx_1^i\\ \sum_i^nx_2^i \\ \vdots\\ \sum_i^nx_m^i \\ \end{bmatrix}= \begin{bmatrix} \mu_{x_1} \\ \mu_{x_2} \\ \vdots\\ \mu_{x_m} \\ \end{bmatrix} μx​​μx​​​μx​=E(xxx)=⎣⎢⎢⎢⎡​E(x1​)E(x2​)⋮E(xm​)​⎦⎥⎥⎥⎤​=n1​⎣⎢⎢⎢⎡​∑in​x1i​∑in​x2i​⋮∑in​xmi​​⎦⎥⎥⎥⎤​=⎣⎢⎢⎢⎡​μx1​​μx2​​⋮μxm​​​⎦⎥⎥⎥⎤​
中心化操作后新样本矩阵为:
Z = [ z 1 z 2 ⋯ z n ] = [ x 1 − μ x x 2 − μ x ⋯ x n − μ x ] Z=\begin{bmatrix} \pmb z^1 & \pmb z^2&\cdots & \pmb z^n \end{bmatrix}= \begin{bmatrix} \pmb x^1-\pmb{ \mu_ x}& \pmb x^2-\pmb{ \mu_ x}&\cdots &\pmb x^n-\pmb{ \mu_ x}& \end{bmatrix} Z=[zzz1​zzz2​⋯​zzzn​]=[xxx1−μx​​μx​​​μx​​xxx2−μx​​μx​​​μx​​⋯​xxxn−μx​​μx​​​μx​​​]然后有 ∑ i n z i = 0 \sum_i^n\pmb z^i=\pmb 0 ∑in​zzzi=000

样本协方差矩阵

1、对于两个一维随机变量 x x x和 y y y的协方差可定义为:
E [ ( x − μ x ) ( y − μ y ) ] = 1 n − 1 ∑ i n ( x i − μ x ) ( y i − μ y ) E[(x-\mu _x)(y-\mu_y)]=\frac 1{n-1}\sum_i^n (x_i-\mu_x)(y_i-\mu_y) E[(x−μx​)(y−μy​)]=n−11​i∑n​(xi​−μx​)(yi​−μy​)若样本已提前中心化,即新样本 z i = x i − μ x z^{i}=x^i-\mu_x zi=xi−μx​, u i = x i − μ y u^{i}=x^i-\mu_y ui=xi−μy​并且 ∑ i n z i = 0 \sum_i^nz^i=0 ∑in​zi=0, ∑ i n u i = 0 \sum_i^n u^i=0 ∑in​ui=0,带入上式得:
E [ ( x − μ x ) ( y − μ y ) ] = 1 n − 1 ∑ i n ( x i − μ x ) ( y i − μ y ) = 1 n − 1 ∑ i n z i u i E[(x-\mu _x)(y-\mu_y)]=\frac 1{n-1}\sum_i^n (x_i-\mu_x)(y_i-\mu_y)=\frac 1 {n-1}\sum_i^nz^iu^i E[(x−μx​)(y−μy​)]=n−11​i∑n​(xi​−μx​)(yi​−μy​)=n−11​i∑n​ziui
2、对于多维随机向量 x \pmb x xxx的自协方差矩阵(通常机器学习里提到的样本协方差矩阵),它是根据向量外积定义的:
E [ ( x − μ x ) ( x − μ x ) T ] = 1 n − 1 ∑ i n ( x i − μ x ) ( x i − μ x ) T E[(\pmb x-\pmb{\mu_x})(\pmb x-\pmb{\mu_x})^T]=\frac 1{n-1}\sum_i^n(\pmb x^i-\pmb{\mu_x})(\pmb x^i-\pmb{\mu_x})^T E[(xxx−μx​​μx​​​μx​)(xxx−μx​​μx​​​μx​)T]=n−11​i∑n​(xxxi−μx​​μx​​​μx​)(xxxi−μx​​μx​​​μx​)T同理若样本已中心化,则
E [ ( x − μ x ) ( x − μ x ) T ] = 1 n − 1 ∑ i n ( x i − μ x ) ( x i − μ x ) T = 1 n − 1 ∑ i n z i ( z i ) T = 1 n − 1 Z Z T E[(\pmb x-\pmb{\mu_x})(\pmb x-\pmb{\mu_x})^T]=\frac 1{n-1}\sum_i^n(\pmb x^i-\pmb{\mu_x})(\pmb x^i-\pmb{\mu_x})^T=\frac 1{n-1}\sum_i^n\pmb z^i(\pmb z^i)^T=\frac 1{n-1}ZZ^T E[(xxx−μx​​μx​​​μx​)(xxx−μx​​μx​​​μx​)T]=n−11​i∑n​(xxxi−μx​​μx​​​μx​)(xxxi−μx​​μx​​​μx​)T=n−11​i∑n​zzzi(zzzi)T=n−11​ZZT注:分块矩阵乘法可得
∑ i n z i ( z i ) T = [ z 1 z 2 ⋯ z n ] [ ( z 1 ) T ( z 2 ) T ⋮ ( z n ) T ] = Z Z T \sum_i^n\pmb z^i(\pmb z^i)^T= \begin{bmatrix} \pmb z^1&\pmb z^2&\cdots&\pmb z^n \end{bmatrix} \begin{bmatrix} (\pmb z^1)^T \\ (\pmb z^2)^T \\ \vdots\\ ( \pmb z^n)^T \\ \end{bmatrix}=ZZ^T i∑n​zzzi(zzzi)T=[zzz1​zzz2​⋯​zzzn​]⎣⎢⎢⎢⎡​(zzz1)T(zzz2)T⋮(zzzn)T​⎦⎥⎥⎥⎤​=ZZT

关于样本协方差矩阵的简单推导相关推荐

  1. 多普勒效应及多普勒频移的简单推导

    多普勒效应及多普勒频移的简单推导 fd≡fR−fT(1)f_d\equiv f_R-f_T \tag{1} fd​≡fR​−fT​(1)   式中,fdf_dfd​表示多普勒频移,fRf_RfR​表示 ...

  2. 深度学习中反向传播算法简单推导笔记

    反向传播算法简单推导笔记 1.全连接神经网络 该结构的前向传播可以写成: z(1)=W(1)x+b(1)z^{(1)} = W^{(1)}x+b^{(1)}z(1)=W(1)x+b(1) a(1)=σ ...

  3. 【应试技巧】格林公式记忆方法及简单推导

    视频讲解:格林公式记忆方法及简单推导 大家在学格林公式的时候会发现其实书本上给的形式并不容易记忆. 大家可能会产生下述的问题 忘记了逆时针和顺时针哪个是正方向? 忘记了P,Q该对谁求偏导? 忘记了求偏 ...

  4. 贝叶斯公式的理解及简单推导

    1. 贝叶斯概念理解 如下为贝叶斯公式,其中P(A)为事件A的先验概率,P(A|B)为事件A的后验概率,且后验概率的计算融合了先验概率的值. P ( A ∣ B ) = P ( B ∣ A ) ∗ P ...

  5. 傅里叶级数的理解与简单推导

    本文重点在于理解傅里叶级数的思想,对于公式的推导仅作泛泛而谈,在正式推导公式之前我想先简单的谈一谈对函数进行傅里叶级数展开有何意义,也即为什么我们要将一个函数进行傅氏变换? 分解与合成是一种朴素的思想 ...

  6. RNN-bptt简单推导

    摘要: 在前面的文章里面,RNN训练与BP算法,我们提到了RNN的训练算法.但是回头看的时候在时间的维度上没有做处理,所以整个推导可能存在一点问题. 那么,在这篇文章里面,我们将介绍bptt(Back ...

  7. 雷达方程中Pr与cosα/R2成正比的简单推导过程

    我们知道简单散射实体一次散射的雷达方程原始公式为: Pr=PtD24πR4βt2σηatmηsysP_{r}=\frac{P_{t}D^{2}}{4\pi R^{4}\beta_{t}^{2}}\si ...

  8. 二项分布均值和方差的简单推导

    前一篇文章<二项分布>中说过,伯努利分布(也称为两点分布或0-1分布)是二项分布在n=1时的特例.我们先看伯努利分布的均值和方差的推导. 根据离散型随机变量均值和方差的定义,若离散型随机变 ...

  9. 三个数差的平方公式推导过程_勾股数公式的简单推导

    勾股数 是指满足 的正整数,它们的通用公式为 ,下边我从定义出发,利用平方差公式举例实验找规律,推导出这一通用公式. 由 可知 当 为奇数时 和 全都是奇数:当 为偶数时 和 全都是偶数.( ,与 同 ...

最新文章

  1. SpringBoot 【IDEA热部署+浏览器禁用缓存】迅速提升效率
  2. jQUery操作checkbox
  3. java dom遍历_JavaScript DOM文档遍历实战
  4. 转Python 参数知识(变量前加星号的意义)
  5. OpenCV Fast角点检测
  6. 【深度学习】Coursera的TensorFlow课程练习题精华部分
  7. Android学习笔记(5)----启动 Theme.Dialog 主题的Activity时程序崩溃的解决办法
  8. RDIFramework.NET ━ 9.4 角色管理 ━ Web部分
  9. 大唐发电厂计算机考试题,全国计算机等级考试上机考试与题库解析:一级B
  10. spring-data-JPA使用JpaRepository注解自定义SQL查询数据库多表查询
  11. 2021-02-02 天地图图层类型
  12. 三星note3 android4.3,真的8核全开了!Exynos版GS4升级安卓4.3
  13. PHP、MySQL分库分表中间件、支持协程
  14. ice的意思_ice是什么意思_ice的翻译_音标_读音_用法_例句_爱词霸在线词典
  15. 如何设置无需fn直接按F1~F10(HP Pavilion Notebook )
  16. win10计算机性能选项在哪,Win10性能大提升,这些设置让你的电脑直接起飞
  17. GPU、GPU驱动、OpenGL、游戏引擎之间的关系
  18. B. Pleasant Pairs
  19. 推荐一个好用的 所见即所得的 markdown 编辑器 Mark Text
  20. 聚类之高斯混合模型(Gaussian Mixture Model)

热门文章

  1. Web前端开发工程师实习生面试题一
  2. 【1】国家电网公司相关情况介绍
  3. apline无法向gitlab上传git lfs问题
  4. 运营新人必看 eBay申诉的最全资料
  5. Java从零开始系列01:Java入门
  6. [卷积系列] P3338 [ZJOI2014]力
  7. 9.synchronized的三把锁
  8. python的名片系统的编写
  9. 二代身份证编码规则及校验代码实现
  10. spss怎样将某一列的类型由字符串转变为数字?