充分完备统计量在绝大多数情况下根本找不到,但即使在这种情况下,仍然可以求出统计量优化的极限,即克拉美罗下界。

Cramer-Rao Lower Bound (CRLB) 很明显是一个MSE值,并且和以下因素有关:

  • 统计模型p(x,θ)p(\mathbf{x},\theta)p(x,θ);
  • 样本数量nnn。

1. 推导过程

下面推导Cramer-Rao Lower Bound:

假设样本数为nnn,样本向量为x\mathbf{x}x,待估计参数是一个标量θ∈R\theta \in \Rθ∈R。假设估计量为θ^(x)\hat\theta(\mathbf{x})θ^(x)。需要注意的是,CRLB和这个θ^\hat\thetaθ^无关,它是最好的θ^\hat\thetaθ^对应的MSE。
对于无偏统计量θ^(x)\hat\theta(\mathbf{x})θ^(x),考察它的MSE最小值。既然无偏:
E(θ^−θ)=∫Rn(θ^−θ)p(x,θ)dx=0\mathrm{E}(\hat\theta - \theta) = \int_{\R^n} (\hat\theta - \theta)p(\mathbf{x}, \theta) \mathrm{d}\mathbf{x} = 0 E(θ^−θ)=∫Rn​(θ^−θ)p(x,θ)dx=0
对θ\thetaθ求导:
∫Rn[∂p(x,θ)∂θ(θ^−θ)−p(x,θ)]dx=0\int_{\R^n} \left[\frac{\partial p(\mathbf{x}, \theta)}{\partial \theta}(\hat\theta - \theta) - p(\mathbf{x},\theta) \right] \mathrm{d}\mathbf{x} = 0 ∫Rn​[∂θ∂p(x,θ)​(θ^−θ)−p(x,θ)]dx=0
即:
∫Rn∂p(x,θ)∂θ(θ^−θ)dx=1\int_{\R^n} \frac{\partial p(\mathbf{x}, \theta)}{\partial \theta}(\hat\theta - \theta) \mathrm{d}\mathbf{x} = 1 ∫Rn​∂θ∂p(x,θ)​(θ^−θ)dx=1
引入对数进行构造:
∫Rn[((θ^−θ)∂ln⁡p(x,θ)∂θ)⋅p(x,θ)]dx=1\int_{\R^n} \left[ \left( (\hat\theta - \theta) \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta}\right) \cdot p(\mathbf{x}, \theta) \right] \mathrm{d}\mathbf{x} = 1 ∫Rn​[((θ^−θ)∂θ∂lnp(x,θ)​)⋅p(x,θ)]dx=1

引入概率上的柯西-施瓦茨不等式:(乘积期望操作可以被当作内积)

E(XY)≤E(X2)⋅E(Y2)\mathrm{E}(XY) \leq \sqrt{\mathrm{E}(X^2)\cdot \mathrm{E}(Y^2)} E(XY)≤E(X2)⋅E(Y2)​

所以:
E(θ^−θ)2⋅E[∂ln⁡p(x,θ)∂θ]2≥E[(θ^−θ)∂ln⁡p(x,θ)∂θ]=1\mathrm{E}(\hat\theta - \theta)^2 \cdot \mathrm{E}\left[ \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} \right]^2 \geq \mathrm{E}\left[ (\hat\theta - \theta) \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta}\right] = 1 E(θ^−θ)2⋅E[∂θ∂lnp(x,θ)​]2≥E[(θ^−θ)∂θ∂lnp(x,θ)​]=1
即:
MSE(θ^)=Var(θ^)≥[E(∂ln⁡p(x,θ)∂θ)2]−1\mathrm{MSE}(\hat\theta) = \mathrm{Var}(\hat\theta) \geq \left[\mathrm{E}\left( \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} \right)^2 \right]^{-1} MSE(θ^)=Var(θ^)≥[E(∂θ∂lnp(x,θ)​)2]−1

2. 案例

用一个案例展示CRLB的计算方式。

考虑一种常见的估计:测量直流电压,观测量上存在一个AWGN。进行nnn次采样,每次采样之间是i.i.d。即参数化模型为:
p(x,θ)=1(2πσ)nexp⁡[−∑i=1n(xi−θ)22σ2]p(\mathbf{x},\theta) = \frac{1}{(\sqrt{2\pi}\sigma)^n}\exp\left[-\frac{\sum_{i = 1}^n(x_i - \theta)^2}{2\sigma^2}\right] p(x,θ)=(2π​σ)n1​exp[−2σ2∑i=1n​(xi​−θ)2​]
先做对数似然:
ln⁡p(x,θ)=−nln⁡(2πσ)−12σ2∑i=1n(xi−θ)2\ln p(\mathbf{x}, \theta) = -n\ln(\sqrt{2\pi}\sigma) - \frac{1}{2\sigma^2}\sum_{i = 1}^n (x_i - \theta)^2 lnp(x,θ)=−nln(2π​σ)−2σ21​i=1∑n​(xi​−θ)2
然后再求导:
∂ln⁡p(x,θ)∂θ=1σ2∑i=1n(xi−θ)\frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} = \frac{1}{\sigma^2}\sum_{i = 1}^n(x_i - \theta) ∂θ∂lnp(x,θ)​=σ21​i=1∑n​(xi​−θ)
下面计算Fisher Information,即把求导后的对数似然函数平方求期望。
I(x,θ)=E[∂ln⁡p(x,θ)∂θ]2=1σ4E[∑i=1n(xi−θ)]2=1σ4E[∑i=1n(xi−θ)2+∑j≠k(xj−θ)(xk−θ)]=nσ2\begin{aligned} I(\mathbf{x}, \theta) &= \mathrm{E}\left[\frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta}\right]^2\\ &= \frac{1}{\sigma^4}\mathrm{E}\left[ \sum_{i = 1}^n (x_i - \theta) \right]^2 \\ &= \frac{1}{\sigma^4}\mathrm{E}\left[ \sum_{i = 1}^n (x_i - \theta)^2 + \sum_{j \neq k}(x_j - \theta)(x_k - \theta) \right]\\ &= \frac{n}{\sigma^2} \end{aligned} I(x,θ)​=E[∂θ∂lnp(x,θ)​]2=σ41​E[i=1∑n​(xi​−θ)]2=σ41​E⎣⎡​i=1∑n​(xi​−θ)2+j​=k∑​(xj​−θ)(xk​−θ)⎦⎤​=σ2n​​
所以CRLB就是:(这个就是算数均值的MSE)
MSE(x,θ)≥σ2n\mathrm{MSE}(\mathbf{x},\theta) \geq \frac{\sigma^2}{n} MSE(x,θ)≥nσ2​

3. Fisher Information 简化计算方法

这个Fisher Information有另一种计算方法:
I(x,θ)=E(∂ln⁡p(x,θ)∂θ)2=−E(∂2∂θ2ln⁡p(x,θ))\begin{aligned} I(\mathbf{x}, \theta) &= \mathrm{E}\left( \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} \right)^2\\ &= -\mathrm{E}\left( \frac{\partial^2}{\partial \theta^2} \ln p(\mathbf{x}, \theta) \right) \end{aligned} I(x,θ)​=E(∂θ∂lnp(x,θ)​)2=−E(∂θ2∂2​lnp(x,θ))​
下面证明这个结论。

首先,基于概率的特性:
∫Rnp(x,θ)dx=1\int_{\R^n} p(\mathbf{x}, \theta) \mathrm{d}\mathbf{x} = 1 ∫Rn​p(x,θ)dx=1
然后开始对θ\thetaθ求导:
∂∂θ∫Rnp(x,θ)dx=0\frac{\partial}{\partial \theta}\int_{\R^n} p(\mathbf{x}, \theta) \mathrm{d}\mathbf{x} = 0 ∂θ∂​∫Rn​p(x,θ)dx=0
交换导数和积分:
∫Rn∂p(x,θ)∂θdx=0\int_{\R^n} \frac{\partial p(\mathbf{x}, \theta)}{\partial \theta}\mathrm{d}\mathbf{x} = 0 ∫Rn​∂θ∂p(x,θ)​dx=0
这个积分形式不好,因为这玩意不伦不类,既不是个概率,也不是个期望。所以希望进行一些构从而得到有意义的形式:
∫Rn∂p(x,θ)∂θdx=∫Rn[∂∂θln⁡[p(x,θ)]]⋅p(x,θ)dx=0\int_{\R^n} \frac{\partial p(\mathbf{x}, \theta)}{\partial \theta}\mathrm{d}\mathbf{x} = \int_{\R^n} \left[ \frac{\partial}{\partial \theta}\ln [p(\mathbf{x}, \theta)] \right] \cdot p(\mathbf{x},\theta) \mathrm{d}\mathbf{x} = 0 ∫Rn​∂θ∂p(x,θ)​dx=∫Rn​[∂θ∂​ln[p(x,θ)]]⋅p(x,θ)dx=0
然后再来一次求导:
∂∂θ∫Rn∂p(x,θ)∂θdx=∂∂θ∫Rn[∂∂θln⁡[p(x,θ)]]⋅p(x,θ)dx=0\frac{\partial }{\partial \theta}\int_{\R^n} \frac{\partial p(\mathbf{x}, \theta)}{\partial \theta}\mathrm{d}\mathbf{x} = \frac{\partial }{\partial \theta}\int_{\R^n} \left[ \frac{\partial}{\partial \theta}\ln [p(\mathbf{x}, \theta)] \right] \cdot p(\mathbf{x},\theta) \mathrm{d}\mathbf{x} = 0 ∂θ∂​∫Rn​∂θ∂p(x,θ)​dx=∂θ∂​∫Rn​[∂θ∂​ln[p(x,θ)]]⋅p(x,θ)dx=0
中间那玩意进行求导积分顺序交换,然后应用乘积求导公式,求出来是这样的:
∂∂θ∫Rn[∂∂θln⁡[p(x,θ)]]⋅p(x,θ)dx=∫Rn[p(x,θ)⋅∂2∂θ2ln⁡p(x,θ)+∂p(x,θ)∂θ⋅∂ln⁡p(x,θ)∂θ]dx=E[∂2∂θ2ln⁡p(x,θ)]+∫Rn[∂p(x,θ)∂θ⋅∂ln⁡p(x,θ)∂θ]dx\begin{aligned} \frac{\partial }{\partial \theta}\int_{\R^n} \left[ \frac{\partial}{\partial \theta}\ln [p(\mathbf{x}, \theta)] \right] \cdot p(\mathbf{x},\theta) \mathrm{d}\mathbf{x} &= \int_{\R^n} \bigg[ p(\mathbf{x}, \theta) \cdot \frac{\partial^2}{\partial \theta^2}\ln p(\mathbf{x}, \theta) + \frac{\partial p(\mathbf{x}, \theta)}{\partial \theta}\cdot \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} \bigg] \mathrm{d}\mathbf{x}\\ &= \mathrm{E}\left[ \frac{\partial^2}{\partial\theta^2} \ln p(\mathbf{x}, \theta) \right] + \int_{\R^n} \bigg[ \frac{\partial p(\mathbf{x}, \theta)}{\partial \theta}\cdot \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} \bigg] \mathrm{d}\mathbf{x} \end{aligned} ∂θ∂​∫Rn​[∂θ∂​ln[p(x,θ)]]⋅p(x,θ)dx​=∫Rn​[p(x,θ)⋅∂θ2∂2​lnp(x,θ)+∂θ∂p(x,θ)​⋅∂θ∂lnp(x,θ)​]dx=E[∂θ2∂2​lnp(x,θ)]+∫Rn​[∂θ∂p(x,θ)​⋅∂θ∂lnp(x,θ)​]dx​
后面那东西仍然是个不伦不类的积分,所以再用一下对数似然函数一阶导数的性质:
∫Rn[∂p(x,θ)∂θ⋅∂ln⁡p(x,θ)∂θ]dx=∫Rn[∂p(x,θ)∂θ⋅∂ln⁡p(x,θ)∂θp(x,θ)p(x,θ)]dx=∫Rn(∂ln⁡p(x,θ)∂θ)2p(x,θ)dx=E[∂ln⁡p(x,θ)∂θ]2\begin{aligned} \int_{\R^n} \bigg[ \frac{\partial p(\mathbf{x}, \theta)}{\partial \theta}\cdot \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} \bigg] \mathrm{d}\mathbf{x} &= \int_{\R^n} \bigg[ \frac{\partial p(\mathbf{x}, \theta)}{\partial \theta}\cdot \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} \frac{p(\mathbf{x}, \theta)}{p(\mathbf{x}, \theta)} \bigg] \mathrm{d}\mathbf{x}\\ &= \int_{\R^n} \left(\frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta}\right)^2 p(\mathbf{x}, \theta) \mathrm{d}\mathbf{x}\\ &= \mathrm{E}\left[ \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} \right]^2 \end{aligned} ∫Rn​[∂θ∂p(x,θ)​⋅∂θ∂lnp(x,θ)​]dx​=∫Rn​[∂θ∂p(x,θ)​⋅∂θ∂lnp(x,θ)​p(x,θ)p(x,θ)​]dx=∫Rn​(∂θ∂lnp(x,θ)​)2p(x,θ)dx=E[∂θ∂lnp(x,θ)​]2​
所以:
I(x,θ)=E(∂ln⁡p(x,θ)∂θ)2=−E(∂2∂θ2ln⁡p(x,θ))\begin{aligned} I(\mathbf{x}, \theta) &= \mathrm{E}\left( \frac{\partial \ln p(\mathbf{x}, \theta)}{\partial \theta} \right)^2\\ &= -\mathrm{E}\left( \frac{\partial^2}{\partial \theta^2} \ln p(\mathbf{x}, \theta) \right) \end{aligned} I(x,θ)​=E(∂θ∂lnp(x,θ)​)2=−E(∂θ2∂2​lnp(x,θ))​

Cramer-Rao Lower Bound 推导相关推荐

  1. Cramer-Rao Lower Bound的推导

    文章目录 Why we need CRLB CRLB for single parameter CRLB for multiple parameters (vector) Why we need CR ...

  2. 论文笔记 -- Communication Lower Bound in Convolution Accelerators 卷积加速器中的通信下界

    论文笔记 – Communication Lower Bound in Convolution Accelerators 卷积加速器中的通信下界 @(论文笔记) 文章目录 论文笔记 -- Commun ...

  3. 【学习笔记】Cramer-Rao Lower Bound 克拉美-罗界

    Cramér–Rao bound 参考来源: CSDN:克拉美-罗下界(Cramer-Rao Lower Bound,CRLB) CSDN:详解统计信号处理之克拉美罗界 Cramer-Rao下界 TU ...

  4. Cramer-Rao Lower Bound (CRLB) Simple Introduction

    The Cramer-Rao Lower Bound (CRLB) gives a lower estimate for the variance of an unbiased estimator. ...

  5. 先验、后验概率,似然,EM算法,ELBO(Evidence Lower Bound),多变量条件概率公式(多变量贝叶斯公式)

    Probability 先验概率.后验概率.似然概率 在学习朴素贝叶斯(Naive Bayes)的时候,总是会混淆先验概率.后验概率和似然概率.通过这篇博客,我将对这三个概率的定义进行详细阐释,以更好 ...

  6. 克拉美-罗下界(Cramer-Rao Lower Bound,CRLB)

    1. 估计量的衡量标准 对于参数估计问题,目前存在着很多估计算法.那么如何去衡量一个估计器(estimator, 也称估计量或估计算法)的性能,我们主要考量以下三个方面 无偏性(unbiased).对 ...

  7. 【 Notes 】Best linear unbiased estimator(BLUE) approach for time-of-arrival based localisation

    目录 Abstract Introduction BLUE-based positioning BLUE-LSC algorithm BLUE-LLS algorithm Abstract A com ...

  8. mimo雷达信号处理_雷达学术入门脉冲雷达信号处理概述

    Reviewed by :@甜草莓 @Robert Zhou: 前置知识:概率论与统计学.面向人群:本科生.研究生/信号处理博士. 编者:对于信号处理来说,雷达和通信一直是一体两面,从MIMO通信到M ...

  9. 第八课.EM算法的合理性与算法推导

    目录 EM算法背景 EM算法迭代的合理性 EM算法推导 EM算法的E步和M步 分析EM算法的由来 EM算法背景 在硬币投掷和班级身高问题中,引入了隐变量问题,模型变成了混合模型,我们不能直接利用极大似 ...

最新文章

  1. 基于深度学习的目标检测研究进展
  2. SQL 数据库 存储过程 视图
  3. Android手机开机自动启动
  4. webservice获取天气预报异常
  5. mysql binary mode_mysql二进制文件操作语法(mysql binary log operate statements)
  6. [leetcode] 154.寻找旋转排序数组中的最小值 II
  7. 【Python数据分析】魔术命令(Magic Command)
  8. 关于java接口、父类子类之间调用和强制转换的关系
  9. oracle 11g PL/SQL Programming学习三
  10. 关于Mybatis的一些问题
  11. 如何查看MacBook Pro硬盘序列号
  12. 第一章 极限、连续与求极限的方法
  13. java class命名_Java中class文件命名规则
  14. SpringBoot2 综合案例(05):定时任务和JDBC多数据源配置
  15. node.js毕业设计安卓手机银行客户端APP(程序+APP+LW)
  16. oracle误删除表空间的数据文件
  17. Kaggle:Home Credit Default Risk 特征工程构建及可视化(2)
  18. cocos android 播放视频,Cocos2d-x IOS 和Android播放视频
  19. CMA软件产品测试报告在哪申请,软件测试费用又是多少?
  20. VS2015安装失败——系统找不到指定路径

热门文章

  1. 基于STM32和超声波测距传感器的测距功能设计
  2. 杰理芯片之程序跑飞,重启,不能运行
  3. ansys谐响应分析
  4. html做人脸识别 博客,一个人脸识别+特效的小例子
  5. 如何判断反馈电路的类型-反馈类型-三极管
  6. @PathVariable注解
  7. JS逆向 | instagram登入enc_password
  8. 服务器2018系统备份软件,Ghost安装器 2018.9.28 (小巧好用的 Ghost 备份恢复工具,d0z作品)...
  9. 【MATLAB appdesigner】14_app界面“运行”小技巧总结(非常干)
  10. 用计算机画的话,让小学生使用word软件进行计算机绘画