Cramer-Rao下限

​ 未知参数的信息都是通过观测的数据以及那些数据的PDF得来的,所以如果PDF对参数依赖性较弱,或在极端情况下PDF与参数不相关,那么所估计的参数精度很差,如果PDF受未知参数影响大,所得到的估计越好。


例:依赖于未知参数的PDF。

​ 如果观测到单个样本,即x[0]=A+w[0]x[0]=A+w[0]x[0]=A+w[0]​,其中w[0]∼N(0,σ2)w[0]\sim N(0,\sigma^2)w[0]∼N(0,σ2)​。​

​ 实际上,一个好的无偏估计是A^=x[0]\hat{A}=x[0]A^=x[0],其方差刚好是σ2\sigma^2σ2,所以估计量的精度随着方差的减少而改善。

​ 如上图所示,展示了两个具有不同方差的PDF与未知参数A的关系。可以看出(a)图的PDF更加集中,可以更为准确的估计未知参数A。

​ 当把PDF看作观测值x已知,且是未知参数的函数时,称其为似然函数。
pi(x[0];A)=12πσi2exp[−12σi2(x[0]−A)2]p_i(x[0];A)=\frac{1}{\sqrt{2\pi\sigma_i^2}}exp[-\frac{1}{2\sigma_i^2}(x[0]-A)^2] pi​(x[0];A)=2πσi2​​1​exp[−2σi2​1​(x[0]−A)2]
​ 根据上图可知,似然函数的"尖锐"性决定了所估计的位置参数的精度,所以为了定量的衡量似然函数的"尖锐"性。因此可以用对数似然函数在其峰值处的负的二阶导数,求出对数似然函数的曲率来衡量"尖锐"性。计算步骤如下:
p(x[0];A)=12πσ2exp[−12σ2(x[0]−A)2]∂lnp(x[0];A)∂A=1σ2(x[0]−A)−∂2lnp(x[0];A)∂A2=1σ2∴var(A^)=1−∂2lnp(x[0];A)∂A2p(x[0];A)=\frac{1}{\sqrt{2\pi\sigma^2}}exp[-\frac{1}{2\sigma^2}(x[0]-A)^2]\\ \frac{\partial lnp(x[0];A)}{\partial A}=\frac{1}{\sigma^2}(x[0]-A)\\ -\frac{\partial^2 lnp(x[0];A)}{\partial A^2}=\frac{1}{\sigma^2}\\ \therefore var(\hat A)=\frac{1}{-\frac{\partial^2 lnp(x[0];A)}{\partial A^2}} p(x[0];A)=2πσ2​1​exp[−2σ21​(x[0]−A)2]∂A∂lnp(x[0];A)​=σ21​(x[0]−A)−∂A2∂2lnp(x[0];A)​=σ21​∴var(A^)=−∂A2∂2lnp(x[0];A)​1​
​ 所以估计量的方差随着曲率的增加而减少。而一般可以用对数似然函数的平均曲率来度量。
−E(∂2lnp(x[0];A)∂A2)-E(\frac{\partial^2 lnp(x[0];A)}{\partial A^2}) −E(∂A2∂2lnp(x[0];A)​)

求解Carmer-Rao下限

​ 如果PDF p(x;θ)p(\pmb x;\theta)p(xxx;θ)​满足其一阶导数的均值为0,
E[∂lnp(x;θ)∂θ]=0E[\frac{\partial lnp(x;\theta)}{\partial \theta}]=0 E[∂θ∂lnp(x;θ)​]=0
​ 那么任何无偏估计量θ^\hat \thetaθ^的方差必定满足
var(θ^)≥1−E(∂2lnp(x;θ)∂θ2)var(\hat \theta)\geq \frac{1}{-E(\frac{\partial^2 lnp(x;\theta)}{\partial\theta^2})} var(θ^)≥−E(∂θ2∂2lnp(x;θ)​)1​
​ 其中导数是在θ\thetaθ的真值处计算的,数学期望是对p(x;θ)p(\pmb x;\theta)p(xxx;θ)求取的,而且对于某个函数ggg和III,当且仅当
∂lnp(x;θ)∂θ=I(θ)(g(x)−θ)\frac{\partial lnp(x;\theta)}{\partial \theta}=I(\theta)(g(x)-\theta) ∂θ∂lnp(x;θ)​=I(θ)(g(x)−θ)
时,对所有θ\thetaθ​达到下限的无偏估计量就可以求得。这个估计量为θ^=g(x)\hat\theta=g(x)θ^=g(x)​,它是MVU估计量,最小方差是1I(θ)\frac{1}{I(\theta)}I(θ)1​​。又因为
E[(∂lnp(x;θ)∂θ)2]=−E[(∂2lnp(x;θ)∂θ2)]E[(\frac{\partial lnp(x;\theta)}{\partial\theta})^2]=-E[(\frac{\partial^2 lnp(x;\theta)}{\partial\theta^2})] E[(∂θ∂lnp(x;θ)​)2]=−E[(∂θ2∂2lnp(x;θ)​)]
所以方差也可表示为
var(θ^)≥1E[(∂lnp(x;θ)∂θ)2]var(\hat\theta)\geq \frac{1}{E[(\frac{\partial lnp(x;\theta)}{\partial\theta})^2]} var(θ^)≥E[(∂θ∂lnp(x;θ)​)2]1​
而公式5中的分母也被称为数据x的Fisher信息I(θ)I(\theta)I(θ),即
I(θ)=−E[(∂2lnp(x;θ)∂θ2)]var(θ^)≥1I(θ)I(\theta)=-E[(\frac{\partial^2 lnp(x;\theta)}{\partial\theta^2})]\\ var(\hat\theta)\geq\frac{1}{I(\theta)} I(θ)=−E[(∂θ2∂2lnp(x;θ)​)]var(θ^)≥I(θ)1​

所以信息越多,CRLB越低,所以Fisher信息具有信息测度的基本性质:

  1. 由公式8可知,它是非负的。
  2. 对独立观测的可加性。

其中性质2可以得到一个结论对N个IID观察的CRLB是单次观察的1N\frac{1}{N}N1​​​​倍。而对于非独立的N次观察,得到的信息小于单次观察的N倍。


例:在高斯白噪声干扰中,信号为高斯白噪声的CRLB计算,可得观测值PDF
x[n]=s[n;θ]+w[n]p(x;θ)=1(2πσ2)N2exp{−12σ2∑n=0N−1(x[n]−s[n;θ])2}x[n]=s[n;\theta]+w[n]\\ p(x;\theta)=\frac{1}{(2\pi\sigma^2)^\frac{N}{2}}exp\{{-\frac{1}{2\sigma^2}\sum_{n=0}^{N-1}(x[n]-s[n;\theta])^2}\} x[n]=s[n;θ]+w[n]p(x;θ)=(2πσ2)2N​1​exp{−2σ21​n=0∑N−1​(x[n]−s[n;θ])2}
此时对其求一次导和二次导:
∂lnp(x;θ)∂θ=1σ2∑n=0N−1(x[n]−s[n;θ])∂s[n;θ]∂θ∂2lnp(x;θ)∂θ2=1σ2∑n=0N−1{(x[n]−s[n;θ])∂2s[n;θ]∂2θ−(∂s[n;θ]∂θ)2}\frac{\partial lnp(x;\theta)}{\partial \theta}=\frac{1}{\sigma^2}\sum_{n=0}^{N-1}(x[n]-s[n;\theta])\frac{\partial s[n;\theta]}{\partial \theta}\\ \frac{\partial^2 lnp(x;\theta)}{\partial \theta^2}=\frac{1}{\sigma^2}\sum_{n=0}^{N-1}\{(x[n]-s[n;\theta])\frac{\partial^2 s[n;\theta]}{\partial^2 \theta}-(\frac{\partial s[n;\theta]}{\partial \theta})^2\} ∂θ∂lnp(x;θ)​=σ21​n=0∑N−1​(x[n]−s[n;θ])∂θ∂s[n;θ]​∂θ2∂2lnp(x;θ)​=σ21​n=0∑N−1​{(x[n]−s[n;θ])∂2θ∂2s[n;θ]​−(∂θ∂s[n;θ]​)2}

取数学期望后,计算CRLB:
E(∂2lnp(x;θ)∂θ2)=−1σ2∑n=0N−1(∂s[x;θ]∂θ)2var(θ^)≥σ2∑n=0N−1(∂s[x;θ]∂θ)2E(\frac{\partial^2lnp(x;\theta)}{\partial\theta^2})=-\frac{1}{\sigma^2}\sum_{n=0}^{N-1}(\frac{\partial s[x;\theta]}{\partial \theta})^2\\ var(\hat\theta)\geq\frac{\sigma^2}{\sum_{n=0}^{N-1}(\frac{\partial s[x;\theta]}{\partial \theta})^2} E(∂θ2∂2lnp(x;θ)​)=−σ21​n=0∑N−1​(∂θ∂s[x;θ]​)2var(θ^)≥∑n=0N−1​(∂θ∂s[x;θ]​)2σ2​
CRLB中展示了信号s[x;θ]s[x;\theta]s[x;θ]依赖θ\thetaθ的重要性。如果信号随着未知参数的改变而迅速变化的话,那么其CRLB更小,能够产生更精确的估计量。


参数的变换

如果所要估计的量是某个基本参数的函数情况。例如对基本参数θ\thetaθ,想要得到估计量θ2\theta^2θ2​的CRLB,如果估计量α=g(θ)\alpha=g(\theta)α=g(θ),那么CRLB为
var(α^)≥(∂g∂θ)2−E[∂2lnp(x;θ)∂θ2]var(\hat\alpha)\geq\frac{(\frac{\partial g}{\partial \theta})^2}{-E[\frac{\partial^2lnp(x;\theta)}{\partial\theta^2}]} var(α^)≥−E[∂θ2∂2lnp(x;θ)​](∂θ∂g​)2​
如果取α=g(θ)=θ2\alpha=g(\theta)=\theta^2α=g(θ)=θ2
var(A2^)≥(2A)2N/σ2=4A2σ2Nvar(\hat{A^2})\geq\frac{(2A)^2}{N/\sigma^2}=\frac{4A^2\sigma^2}{N} var(A2^)≥N/σ2(2A)2​=N4A2σ2​

扩展到矢量参数

如果将上述结果扩展到估计矢量参数θ=[θ1,θ2,⋯,θp]T\pmb \theta=[\theta_1,\theta_2,\cdots,\theta_p]^Tθθθ=[θ1​,θ2​,⋯,θp​]T,假设估计矢量θ^\hat{\pmb \theta}θθθ^是无偏估计,那么矢量参数的CRLB可以对每个元素的方差放置一个下限,其中CRLB可以通过一个矩阵的逆的[i,i][i,i][i,i]元素求出,即
var(θi^)≥[I−1(θ)]iivar(\hat{\pmb\theta_i})\geq[\pmb I^{-1}(\pmb \theta)]_{ii} var(θθθi​^​)≥[III−1(θθθ)]ii​
其中I(θ)\pmb I(\pmb \theta)III(θθθ)是p×pp\times pp×p的Fisher矩阵,其定义如下
[I(θ)]ij=−E[∂2lnp(x;θ)∂θi∂θj]i=1,2,...,p;j=1,2,...,p[\pmb I(\pmb \theta)]_{ij}=-E[\frac{\partial^2lnp(x;\theta)}{\partial\theta_i\partial\theta_j}]\quad i=1,2,...,p;j=1,2,...,p [III(θθθ)]ij​=−E[∂θi​∂θj​∂2lnp(x;θ)​]i=1,2,...,p;j=1,2,...,p

统计信号处理 (估计三): Cramer-Rao下限相关推荐

  1. 统计信号处理基础 - 估计与检测理论 估计部分习题3.7公式推导

    统计信号处理基础 - 估计与检测理论 估计部分习题3.7公式推导 题目 证明 结论 得证 题目 相信学习信号检测与估计的童鞋们肯定看到过Steven M.Kay大牛的书,非常厚的一本,不得不说,人家的 ...

  2. 统计信号处理中的似然函数与最大似然估计

    假设条件 1.参数为标量形式,θθθ 2.加性模型(x[n]=s[n;θ]+w[n],n=0,1,-N−1x[n]=s[n;θ]+w[n],n=0,1,-N-1x[n]=s[n;θ]+w[n],n=0 ...

  3. 详解统计信号处理之克拉美罗界

    各种研究领域(包括无线定位方向)都会碰到参数估计的问题,这时常常会看到克拉美罗界 (Cramér–Rao bound) 这个东西.很多随机信号的书都会介绍什么是克拉美罗界,但初学者学起来往往很吃力,本 ...

  4. 详解统计信号处理之 克拉美罗界

    各种研究领域(包括无线定位方向)都会碰到参数估计的问题,这时常常会看到克拉美罗界 (Cramér–Rao bound) 这个东西.很多随机信号的书都会介绍什么是克拉美罗界,但初学者学起来往往很吃力,本 ...

  5. 【统计信号处理kay 第七章 两道习题python仿真】

    统计信号处理 第七章 两道习题python仿真 前言 一.蒙特卡洛计算法 二.7.13题 1.题目内容 2.流程图 3.示例代码 4.实验结果 理论分析 三.7.14题 1.题目内容 2.参考代码 3 ...

  6. 单个正态总体均值的区间估计_考研数学闭关修炼习题讲解(3536)统计、估计与检验...

    锵锵锵!终于到了收官的时候,是的,没有看错,我们终于刷完了<闭关修炼>!今天的内容是统计.估计与检验,对应闭关修炼第35和36讲,一共有10个题,是又一个大题出题点,大家要小心,首先庆祝一 ...

  7. 语音信号处理第三章:

    语音信号处理第二章 语音信号处理第三章 语音信号处理第四章 语音信号处理第五章 语音信号处理第七章 语音信号处理第九章 语音信号处理第十章 语音信号处理第十二章 文章目录 1.数字化和预处理 1.1. ...

  8. 推断性统计部分(三)---假设检验

    推断性统计部分(三)-假设检验 标签(空格分隔): 概率论与数理统计 假设检验 假设检验与置信区间其实是一样意思,区别就是再多做两步工作(假设及判断),仅此而已. 我们先回顾置信区间是计算的 1.判断 ...

  9. 统计系列(三)利用Python进行参数估计

    统计系列(三)利用Python进行参数估计 点估计 样本均值估计为总体均值,样本比例估计为总体比例. import numpy as npx = [1, 1, 0, 1, 0, 0, 1, 0, 1, ...

最新文章

  1. 内容协商 (Content Negotiation)
  2. mysql 优先队列_深入浅出 MySQL 优先队列(你一定会踩到的order by limit 问题)
  3. android one gm 5,Android One计划诞生,GM 5 Plus发布
  4. 洛谷P1119 灾后重建
  5. C语言运算符优先级和口诀(转)
  6. 前沿资讯|Spring Native 0.11.2、Spring Authorization Server 0.2.2 发布
  7. swift perfect mysql_服务端写Swift体验 (Perfect框架)
  8. 【Tiny4412】EMMC启动最小网络文件系统
  9. android 9 pie公司,Android 9.0正式推送 定名Android Pie
  10. INFORMIX体系效能改善第一步
  11. 当当网价格系统架构分析
  12. 史上最全微信运营工具
  13. mfc 使用flash控件注意事项
  14. 【高等数学】第二章 导数与微分——第一节 导数的概念
  15. guzzle php,windows系统下安装使用guzzle
  16. Prometheus(3)Prometheus界面概述、监控服务功能实现
  17. 基于皮肤分割的磨皮算法
  18. axis2 默认端口_axis2 webservice 问题,高手进,急!!!!!!!!!!!!!!!!!!!!!
  19. 搜索引擎JSONP接口
  20. http请求之GET、POST对比分析

热门文章

  1. SAP中银企直联付款审批问题解决案例
  2. ssm整合开发 动力节点王鹤版本
  3. Testbench编写指南(3)模块化工程的仿真方法
  4. <datart二开>翻牌器侧(纵)轴对齐方式
  5. CRC(循环冗余校验)
  6. 员工上网行为管理——一把怎样的双刃剑
  7. JAVA 文件上传下载工具类
  8. Jenkins WebSphere 部署
  9. PAT(乙级)2019年冬季考试【答案+题解】
  10. 迅雷看看 V4.9.14.2052绿色版 - 高清在线影院