\qquadDC电平估计为例,估计值A^\hat{A}A^为数据样本x[N]x[N]x[N]均值,则LSE变为:
A^[N]=1N+1∑n=0Nx[n]\hat{A}[N] = \frac{1}{N+1}\sum_{n = 0}^{N}x[n] A^[N]=N+11​n=0∑N​x[n]\qquad在加权LS问题中,当加权矩阵为W\bold{W}W(通常为噪声矩阵)是对角矩阵时,其中[W]ii=1/σi2[\bold{W}]_{ii}=1/\sigma_{i}^{2}[W]ii​=1/σi2​,加权LSE表达式为:
A^[N]=∑n=0Nx[n]σn2∑n=0N1σn2\hat{A}[N]=\frac{\sum_{n=0}^{N}\frac{x[n]}{\sigma_{n}^{2}}}{\sum_{n=0}^{N}\frac{1}{\sigma_{n}^{2}}} A^[N]=∑n=0N​σn2​1​∑n=0N​σn2​x[n]​​\qquad分解为序贯形式为:
A^[N]=∑n=0N−1x[n]σn2+x[N]σN2∑n=0N1σn2=∑n=0N−11σn2A^[N−1]+x[N]σN2∑n=0N1σn2=A^[N−1]+1σN2∑n=0N1σn2∗(x[N]−A^[N−1])\hat{A}[N] = \frac{\sum_{n=0}^{N-1}\frac{x[n]}{\sigma_{n}^{2}}+\frac{x[N]}{\sigma_{N}^{2}}}{\sum_{n=0}^{N}\frac{1}{\sigma_{n}^{2}}}= \frac{{\sum_{n=0}^{N-1}\frac{1}{\sigma_{n}^{2}}}\hat{A}[N-1] + \frac{x[N]}{\sigma_{N}^{2}}}{\sum_{n=0}^{N}\frac{1}{\sigma_{n}^{2}}} \\ =\hat{A}[N-1] + \frac{\frac{1}{\sigma_{N}^{2}}}{\sum_{n=0}^{N}\frac{1}{\sigma_{n}^{2}}} * (x[N] - \hat{A}[N-1]) A^[N]=∑n=0N​σn2​1​∑n=0N−1​σn2​x[n]​+σN2​x[N]​​=∑n=0N​σn2​1​∑n=0N−1​σn2​1​A^[N−1]+σN2​x[N]​​=A^[N−1]+∑n=0N​σn2​1​σN2​1​​∗(x[N]−A^[N−1])\qquad其中,LSE即为最优线性无偏估计(BLUE),因此:
var(A^[N−1])=1∑n=0N−11σn2var(\hat{A}[N-1]) = \frac{1}{\sum_{n=0}^{N-1}\frac{1}{\sigma_{n}^{2}}} var(A^[N−1])=∑n=0N−1​σn2​1​1​\qquad由此,增益K[N]K[N]K[N]可以表示为:
K[N]=var(A^[N−1])var(A^[N−1])+σN2K[N]=\frac{var(\hat A[N-1])}{var(\hat A[N-1]) + \sigma_{N}^{2}} K[N]=var(A^[N−1])+σN2​var(A^[N−1])​\qquad由于增益K[N]K[N]K[N]取决于var(A^[N−1])var(\hat A[N-1])var(A^[N−1]),则可以表示为:
var(A^[N])=1∑n=0N1σn2=11var(A^[N−1])+1σN2=var(A^[N−1])σN2var(A^[N−1])+σN2=(1−var(A^[N−1])var(A^[N−1])+σN2)var(A^[N−1])=(1−K[N])var(A^[N−1])var(\hat A[N]) = \frac{1}{\sum_{n=0}^{N}\frac{1}{\sigma_{n}^{2}}}=\frac{1}{\frac{1}{var(\hat A[N-1])} + \frac{1}{\sigma_{N}^{2}}}=\frac{var(\hat A[N-1])\sigma_{N}^{2}}{var(\hat A[N-1]) + \sigma_{N}^{2}} \\ =(1-\frac{var(\hat A[N-1])}{var(\hat A[N-1]) + \sigma_{N}^{2}})var(\hat A[N-1])=(1-K[N])var(\hat A[N-1]) var(A^[N])=∑n=0N​σn2​1​1​=var(A^[N−1])1​+σN2​1​1​=var(A^[N−1])+σN2​var(A^[N−1])σN2​​=(1−var(A^[N−1])+σN2​var(A^[N−1])​)var(A^[N−1])=(1−K[N])var(A^[N−1])\qquad由此,A^[N],K[N],var(A^[N])\hat A[N],K[N],var(\hat A[N])A^[N],K[N],var(A^[N])可以递推获得。
估计量更新为:A^[N]=A^[N−1]+K[N](x[N]−A^[N−1])\hat A[N] = \hat A[N-1] + K[N](x[N] - \hat A[N-1])A^[N]=A^[N−1]+K[N](x[N]−A^[N−1])
方差更新为:var(A^[N])=(1−K[N])var(A^[N−1])var(\hat A[N]) = (1-K[N])var(\hat A[N-1])var(A^[N])=(1−K[N])var(A^[N−1])\qquad具有矢量参数的序贯LSE,使用CCC表示零均值噪声的矩阵,即:
J=(x−Hθ)TC−1(x−Hθ)\bold J = (\bold x-\bold H\bold\theta)^{T}\bold C^{-1}(\bold x-\bold H\bold\theta) J=(x−Hθ)TC−1(x−Hθ)其中,包含与BLUE相同的条件即θ^\hat\thetaθ^无偏且线性。则最优的估计值为:
θ^=(HTC−1H)H−1C−1xCθ^=(HTC−1H)−1\hat\bold\theta=(\bold H^{T}\bold C^{-1}H)\bold H^{-1}\bold C^{-1}\bold x \\ \bold C_{\hat\theta}=(\bold H^{T}\bold C^{-1}\bold H)^{-1} θ^=(HTC−1H)H−1C−1xCθ^​=(HTC−1H)−1其中,C\bold CC是对焦矩阵,即噪声不相关,因此θ^\hat\bold\thetaθ^可按照时间顺序获得,令:
C[n]=diag{σ12,σ22,...,σn2}H[n]=[H[n−1]hT[n]]=[n×p1×p]x[n]=[x[1],x[2],...,x[n]]T\bold C[n] = diag\{\sigma_{1}^{2},\sigma_{2}^{2},...,\sigma_{n}^{2}\} \\ \bold H[n]=\begin{bmatrix} \bold H[n-1] \\ \bold h^{T}[n] \end{bmatrix}=\begin{bmatrix} n \times p \\ 1 \times p \end{bmatrix} \\ \bold x[n] = [x[1],x[2],...,x[n]]^{T} C[n]=diag{σ12​,σ22​,...,σn2​}H[n]=[H[n−1]hT[n]​]=[n×p1×p​]x[n]=[x[1],x[2],...,x[n]]T\qquad使用θ^[n]\hat\theta[n]θ^[n]表示基于x[n]\bold x[n]x[n]或者基于前n+1n+1n+1个数据样本的加权LSE,估计量为:
θ^[n]=(HT[n]C−1[n]H[n])−1H[n]TC−1[n]x[n]\hat\bold\theta[n]=(\bold H^{T}[n]\bold C^{-1}[n]\bold H[n])^{-1}\bold H[n]^{T}\bold C^{-1}[n]\bold x[n] θ^[n]=(HT[n]C−1[n]H[n])−1H[n]TC−1[n]x[n]\qquad协方差矩阵∑[n]\bold{\sum}[n]∑[n]为:
Cθ^[n]=∑[n]=(HT[n]C−1[n]H[n])−1\bold C_{\hat\theta[n]} = \bold{\sum}[n] = (\bold H^{T}[n]\bold C^{-1}[n]\bold H[n])^{-1} Cθ^[n]​=∑[n]=(HT[n]C−1[n]H[n])−1θ^[n]=([HT[n−1],h[n]][C[n−1]00σn2]−1[H[n−1]hT[n]])−1([HT[n−1],h[n]][C[n−1]00σn2]−1[x[n−1]x[n]])=(HT[n−1]C−1[n−1]H[n−1]+1σn2h[n]hT[n])−1(HT[n−1]C−1[n−1]x[n−1]+1σn2h[n]x[n])\hat\bold \theta[n]=([\bold H^{T}[n-1],\bold h[n]] \begin{bmatrix} \bold C[n-1] & 0 \\ 0 & \sigma^{2}_{n} \end{bmatrix}^{-1} \begin{bmatrix} \bold H[n-1] \\ \bold h^{T}[n] \end{bmatrix})^{-1} \\ ([\bold H^{T}[n-1],\bold h[n]] \begin{bmatrix} \bold C[n-1] & 0 \\ 0 & \sigma^{2}_{n} \end{bmatrix}^{-1} \begin{bmatrix} \bold x[n-1] \\ x[n] \end{bmatrix}) \\ =(\bold H^{T}[n-1]\bold C^{-1}[n-1]\bold H[n-1] + \frac{1}{\sigma^{2}_{n}}\bold h[n]\bold h^{T}[n])^{-1} \\ (\bold H^{T}[n-1]\bold C^{-1}[n-1]\bold x[n-1] + \frac{1}{\sigma^{2}_{n}}\bold h[n]\bold x[n]) θ^[n]=([HT[n−1],h[n]][C[n−1]0​0σn2​​]−1[H[n−1]hT[n]​])−1([HT[n−1],h[n]][C[n−1]0​0σn2​​]−1[x[n−1]x[n]​])=(HT[n−1]C−1[n−1]H[n−1]+σn2​1​h[n]hT[n])−1(HT[n−1]C−1[n−1]x[n−1]+σn2​1​h[n]x[n])令∑[n−1]=(HT[n−1]C−1[n−1]H[n−1])−1\sum[n-1] = (\bold H^{T}[n-1]\bold C^{-1}[n-1]\bold H[n-1])^{-1}∑[n−1]=(HT[n−1]C−1[n−1]H[n−1])−1
则θ^[n]=(∑−1[n−1]+1σn2h[n]hT[n])−1(HT[n−1]C−1[n−1]x[n−1]+1σn2h[n]x[n])\hat\theta[n] = (\bold{\sum}^{-1}[n-1] + \frac{1}{\sigma^{2}_{n}}\bold h[n]\bold h^{T}[n])^{-1} \\ (\bold H^{T}[n-1]\bold C^{-1}[n-1]\bold x[n-1] + \frac{1}{\sigma^{2}_{n}}\bold h[n]\bold x[n]) θ^[n]=(∑−1[n−1]+σn2​1​h[n]hT[n])−1(HT[n−1]C−1[n−1]x[n−1]+σn2​1​h[n]x[n])因为∑[n]=(∑−1[n−1]+1σn2h[n]hT[n])−1\bold{\sum}[n] = (\bold{\sum}^{-1}[n-1] + \frac{1}{\sigma^{2}_{n}}\bold h[n]\bold h^{T}[n])^{-1} ∑[n]=(∑−1[n−1]+σn2​1​h[n]hT[n])−1由Woodbury恒等式(A+uuT)−1=A−1−A−1uuTA−11+uTA−1u(A + uu^{T})^{-1} = A^{-1} - \frac{A^{-1}uu^{T}A^{-1}}{1+u^{T}A^{-1}u} (A+uuT)−1=A−1−1+uTA−1uA−1uuTA−1​得:∑[n]=∑[n−1]−∑[n−1]h[n]h[n]T∑[n−1]σn2+h[n]T∑[n−1]h[n]=(I−K[n]hT[n])∑[n−1]\bold{\sum}[n] = \bold{\sum}[n-1] - \frac{\bold{\sum}[n-1]\bold h[n]\bold h[n]^{T}\bold{\sum}[n-1]}{\sigma^{2}_{n}+\bold h[n]^{T}\bold{\sum}[n-1]\bold h[n]} \\ =(\bold I-\bold K[n]\bold h^{T}[n])\sum[n-1] ∑[n]=∑[n−1]−σn2​+h[n]T∑[n−1]h[n]∑[n−1]h[n]h[n]T∑[n−1]​=(I−K[n]hT[n])∑[n−1]其中,K[n]=∑[n−1]h[n]σn2+h[n]T∑[n−1]h[n]\bold K[n] = \frac{\bold{\sum}[n-1]\bold h[n]}{\sigma^{2}_{n}+\bold h[n]^{T}\bold{\sum}[n-1]\bold h[n]} K[n]=σn2​+h[n]T∑[n−1]h[n]∑[n−1]h[n]​所以θ^[n]=((I−K[n]hT[n])∑[n−1])(HT[n−1]C−1[n−1]x[n−1]+1σn2h[n]x[n])\hat\theta[n] = ((\bold I-\bold K[n]\bold h^{T}[n])\sum[n-1]) \\(\bold H^{T}[n-1]\bold C^{-1}[n-1]\bold x[n-1] + \frac{1}{\sigma^{2}_{n}}\bold h[n]\bold x[n]) θ^[n]=((I−K[n]hT[n])∑[n−1])(HT[n−1]C−1[n−1]x[n−1]+σn2​1​h[n]x[n])且θ^[n−1]=∑[n−1]HT[n−1]C−1[n−1]x[n−1]\hat\bold\theta[n-1] = \sum[n-1]\bold H^{T}[n-1]\bold C^{-1}[n-1]\bold x[n-1] θ^[n−1]=∑[n−1]HT[n−1]C−1[n−1]x[n−1]化简的:θ^[n]=θ^[n−1]+K[n](x[n]−hT[n]θ^[n−1])\hat\bold\theta[n] = \hat\bold\theta[n-1] + \bold K[n](x[n] - \bold h^{T}[n]\hat\bold \theta[n-1]) θ^[n]=θ^[n−1]+K[n](x[n]−hT[n]θ^[n−1])以上得到方差更新方程和状态更新方程。

2.序贯最小二乘估计(仅包含滤波)相关推荐

  1. 基于序贯重要性重采样的粒子滤波and(RBPF)

    基于序贯重要性重采样的粒子滤波 重要性采样 重要性采样算法 序贯重要性重采样SIR(粒子滤波) 重采样过程 Rao-Blackwellized粒子滤波RBPF(混合卡尔曼滤波器MKF) 尽管高斯逼近可 ...

  2. 序贯最小二乘平差 / 递推最小二乘平差 公式推导

    文章目录 Part.I 预备知识 Chap.I 基础概念 Chap.II 符号含义 Part.II 递推最小二乘平差原理 Chap.I 递推公式 Chap.II 递推公式推导 Chap.III 一图流 ...

  3. GNSS说第(七)讲---自适应动态导航定位(三)---序贯导航定位解算原理

    GNSS说第(七)讲-自适应动态导航定位(三)-序贯导航定位解算原理 序贯导航定位解算原理 序贯平差法属于逐步平差法,即递推平差.其基本思想是:在对线性模型的统计性质作某些合适的假设后,基于不同的平差 ...

  4. 滤波总结+应用举例1(kalman滤波、序贯滤波、UD分解滤波、遗忘滤波、信息滤波、自适应滤波)(内含matlab代码)

    最近在研究滤波的相关知识,在此写个总结,以免自己遗忘. 卡尔曼滤波其实是一种估计方法,在已知前一时刻的状态量和当前时刻的量测情况下,估计当前状态量. 1.首先介绍常规kalman filter(含详细 ...

  5. 捷联惯导系统学习6.2(序贯滤波 )

    序贯滤波(sequential Kalman filtering) 一种将高维数据量测更新降低为多个低维数量测更新的方法,有效降低矩阵的求逆计算量(通过把矩阵对角化,将对角拆开分开计算) 特别的对于如 ...

  6. 粒子滤波 particle filter —从贝叶斯滤波到 粒子滤波—Part-III(重要性采样序贯重要性采样SIS)

    粒子滤波 particle filter -从贝叶斯滤波到粒子滤波-Part-III(重要性采样&序贯重要性采样SIS) 原创不易,路过的各位大佬请点个赞 机动目标跟踪/非线性滤波/传感器融合 ...

  7. Python机器学习笔记:深入理解Keras中序贯模型和函数模型

     先从sklearn说起吧,如果学习了sklearn的话,那么学习Keras相对来说比较容易.为什么这样说呢? 我们首先比较一下sklearn的机器学习大致使用流程和Keras的大致使用流程: skl ...

  8. 浅谈深度学习:LSTM对股票的收益进行预测(Sequential 序贯模型,Keras实现)

    浅谈深度学习:LSTM对股票的收益进行预测(Sequential 序贯模型,Keras实现) 总包含文章: 一个完整的机器学习模型的流程 浅谈深度学习:了解RNN和构建并预测 浅谈深度学习:基于对LS ...

  9. matlab解决序贯高斯模拟(附有例题)

    第1章  序贯高斯模拟基本原理 1.1.序贯高斯模拟和普通克里格法的区别 序贯高斯模拟结果整体分布较离散,突出原始数据的非均质性和不确定性.可产生多个结果.普通克里格法模拟结果追求最高的估值精度和最小 ...

最新文章

  1. [转] Java中public,private,final,static等概念的解读
  2. 计算机网络基础 — 网络设备转发原理
  3. oracle顺序读发散读,Oracle 拼音排序
  4. JAVA实现可设置背景的MDI窗口
  5. 【CF1020C】Election【贪心】
  6. java 调用祖父方法_在Java中调用祖父母方法:您不能
  7. hadoop中实现定制Writable类
  8. LeetCode Longest Common Prefix
  9. Mybatis源码本地化构建Demo
  10. windows下javadoc生成文档注释的命令
  11. iis 运行时错误_新手必看,17个常见的Python运行时错误
  12. python语言mooc作业_计算机基础(Ⅱ)Python语言-中国大学mooc-试题题目及答案
  13. AXD 调试经验,使用及问题
  14. “爱心助农”成绩单公布,淘宝何以成为最大舞台?
  15. AI魔幻行为大赏:细数机器视觉的9大应用场景
  16. 本周AI热点回顾:「时空版」Transformer训练速度远超3D CNN;拒绝内卷的AI狼火了!不想抓羊只想躺!...
  17. oracle读写速率,Oracle、PostgreSQL与Mysql数据写入性能对比
  18. 【游戏开发创新】当我学了Blender 建模,自制3D电脑桌面,回收站爆发了,把我做的模型都吐了出来(Blender | Unity | FBX)
  19. 【qstock数据篇】行业概念板块与资金流
  20. c语言3 17,C语言修仙

热门文章

  1. 遥感AI?!来体验阿里巴巴达摩院的AI Earth
  2. 现在你们叫我大佬,其实我在大学就是渣渣
  3. Linux下的动态监控进程
  4. 实战干货!50行Python代码一键整理桌面!
  5. tp3.x和tp5.0的区别
  6. 动态规划入门问题:猴子与香蕉
  7. VPI技术ABB低压变压器AFWF
  8. Windows无法启动MySQL80服务(位于本地计算机)
  9. 现在工作所具备的计算机操作,信息科科长职位竞争上岗讲演稿(网友投稿)
  10. 003:NumPy的应⽤-1