UA MATH566 统计理论 Fisher信息量的性质上

  • Fisher信息量的定义
  • Fisher信息量的数学意义

C-R下界是由Fisher统计量定义的,在推导C-R下界的时候,我们只是把下界的逆定义成了Fisher信息量,但尚未探讨这个量的本质是什么?为什么要叫它信息量?它有哪些性质?以及怎么计算的问题。这一讲我们讨论前两个问题,下一讲讨论它的性质,计算则留到后续的博客结合例题介绍。

Fisher信息量的定义

某分布族为f(x,θ),θ∈Θf(x,\theta),\theta \in \Thetaf(x,θ),θ∈Θ,假设Θ⊂R\Theta \subset \mathbb{R}Θ⊂R,则此时的得分函数关于分布参数是一维的
S(x,θ)=∂log⁡L(θ)∂θ=1f(x,θ)∂f(x,θ)∂θS(x,\theta) = \frac{\partial \log L(\theta)}{\partial \theta} = \frac{1}{f(x,\theta)} \frac{\partial f(x,\theta)}{\partial \theta}S(x,θ)=∂θ∂logL(θ)​=f(x,θ)1​∂θ∂f(x,θ)​

则它的一阶矩为零,并称它的二阶矩为Fisher信息量
E[S(X,θ)]=0,E[S(X,θ)]2=I(θ)E[S(X,\theta)]=0,\ \ E[S(X,\theta)]^2 = I(\theta)E[S(X,θ)]=0,  E[S(X,θ)]2=I(θ)

Fisher信息量的数学意义

下面说明为什么I(θ)I(\theta)I(θ)可以用来衡量信息的多少。在UA MATH636 信息论1 熵中我们介绍了熵、Divergence、互信息等用来衡量信息多少的量,下面我们就来讨论一下Fisher信息量与信息论中的这些信息度量之间的关系。

参考UA MATH636 信息论6 微分熵,微分熵的定义是
h(θ)=−E[log⁡f(x,θ)]=−∫f(x,θ)log⁡f(x,θ)dxh(\theta) = -E[\log f(x,\theta)] = -\int f(x,\theta) \log f(x,\theta)dxh(θ)=−E[logf(x,θ)]=−∫f(x,θ)logf(x,θ)dx

计算微分熵的差分
Δh=h(θ+Δθ)−h(θ)=−∫f(x,θ)[log⁡f(x,θ+Δθ)−log⁡f(x,θ)]dx\Delta h = h(\theta + \Delta\theta) - h(\theta) = -\int f(x,\theta)[ \log f(x,\theta + \Delta\theta)- \log f(x,\theta)]dxΔh=h(θ+Δθ)−h(θ)=−∫f(x,θ)[logf(x,θ+Δθ)−logf(x,θ)]dx

接下来做Taylor展开
log⁡f(x,θ+Δθ)−log⁡f(x,θ)=∂log⁡f(x,θ)∂θΔθ+12!∂2log⁡f(x,θ)∂2θ(Δθ)2+o(Δθ)2\log f(x,\theta + \Delta\theta)- \log f(x,\theta) = \frac{\partial \log f(x,\theta)}{\partial \theta}\Delta \theta +\frac{1}{2!} \frac{\partial^2 \log f(x,\theta)}{\partial^2 \theta}(\Delta \theta)^2 + o(\Delta \theta)^2logf(x,θ+Δθ)−logf(x,θ)=∂θ∂logf(x,θ)​Δθ+2!1​∂2θ∂2logf(x,θ)​(Δθ)2+o(Δθ)2

下面计算那两个导数
∂log⁡f(x,θ)∂θ=f′(x,θ)f(x,θ),∂2log⁡f(x,θ)∂2θ=f′′(x,θ)f(x,θ)−[f′(x,θ)]2f2(x,θ)\frac{\partial \log f(x,\theta)}{\partial \theta} = \frac{f'(x,\theta)}{f(x,\theta)},\ \frac{\partial^2 \log f(x,\theta)}{\partial^2 \theta} = \frac{f''(x,\theta)}{f(x,\theta)}-\frac{[f^{'}(x,\theta)]^2}{f^2(x,\theta)}∂θ∂logf(x,θ)​=f(x,θ)f′(x,θ)​, ∂2θ∂2logf(x,θ)​=f(x,θ)f′′(x,θ)​−f2(x,θ)[f′(x,θ)]2​

把这些结论带入差分中,
Δh=−∫f(x,θ)[f′(x,θ)f(x,θ)Δθ+12(f′′(x,θ)f(x,θ)−[f′(x,θ)]2f2(x,θ))(Δθ)2+o(Δθ)2]dx\Delta h = -\int f(x,\theta)[ \frac{f'(x,\theta)}{f(x,\theta)}\Delta \theta +\frac{1}{2}(\frac{f''(x,\theta)}{f(x,\theta)}-\frac{[f^{'}(x,\theta)]^2}{f^2(x,\theta)})(\Delta \theta)^2+o(\Delta \theta)^2]dx Δh=−∫f(x,θ)[f(x,θ)f′(x,θ)​Δθ+21​(f(x,θ)f′′(x,θ)​−f2(x,θ)[f′(x,θ)]2​)(Δθ)2+o(Δθ)2]dx

我们逐项分析,第一项
∫f(x,θ)f′(x,θ)f(x,θ)Δθdx=E[S(X,θ)]Δθ=0\int f(x,\theta) \frac{f'(x,\theta)}{f(x,\theta)}\Delta \theta dx = E[S(X,\theta)]\Delta \theta = 0∫f(x,θ)f(x,θ)f′(x,θ)​Δθdx=E[S(X,θ)]Δθ=0

最后一项积分后还是高阶无穷小量,可以忽略
∫o(Δθ)2dx=o(Δθ)2\int o(\Delta \theta)^2 dx = o(\Delta \theta)^2∫o(Δθ)2dx=o(Δθ)2

第二项中的第一部分
∫f(x,θ)f′′(x,θ)f(x,θ)dx=E[∂S(X,θ)∂θ]=∂∂θE[S(X,θ)]=0\int f(x,\theta )\frac{f''(x,\theta)}{f(x,\theta)} dx = E[\frac{\partial S(X,\theta)}{\partial \theta}] = \frac{\partial}{\partial \theta}E[S(X,\theta)] = 0∫f(x,θ)f(x,θ)f′′(x,θ)​dx=E[∂θ∂S(X,θ)​]=∂θ∂​E[S(X,θ)]=0

因此最后只剩下
Δh=12∫f(x,θ)[f′(x,θ)]2f2(x,θ)(Δθ)2dx=E[∂log⁡L(x,θ)∂θ∂log⁡L(x,θ)∂θ](Δθ)2=12I(θ)(Δθ)2\Delta h = \frac{1}{2} \int f(x,\theta)\frac{[f^{'}(x,\theta)]^2}{f^2(x,\theta)}(\Delta \theta)^2dx \\= E[\frac{\partial \log L(x,\theta)}{\partial \theta}\frac{\partial \log L(x,\theta)}{\partial \theta}](\Delta \theta)^2 = \frac{1}{2}I(\theta)(\Delta \theta)^2Δh=21​∫f(x,θ)f2(x,θ)[f′(x,θ)]2​(Δθ)2dx=E[∂θ∂logL(x,θ)​∂θ∂logL(x,θ)​](Δθ)2=21​I(θ)(Δθ)2

如果是多维分布,那么
Δh=12ΔθTI(θ)Δθ\Delta h = \frac{1}{2} \Delta \theta^TI(\theta)\Delta \thetaΔh=21​ΔθTI(θ)Δθ

也就是说,熵的差分可以表示为以Fisher信息量为矩阵的二次型

UA MATH566 统计理论 Fisher信息量的性质上相关推荐

  1. UA MATH566 统计理论 Fisher信息论的性质下

    UA MATH566 统计理论 Fisher信息量的性质下 辅助统计量的Fisher信息为0 分布族参数变换后的Fisher信息 统计量的Fisher信息的有界性 下面介绍一些Fisher信息量的常用 ...

  2. UA MATH566 统计理论 一个例题 Hierarchical Model的统计性质

    UA MATH566 统计理论 一个例题 Hierarchical Model的统计性质 Y∣X∼Pois(X)Y|X \sim Pois(X)Y∣X∼Pois(X) and X∼Γ(α,β)X \s ...

  3. UA MATH566 统计理论2 C-R不等式简介

    UA MATH566 统计理论2 C-R不等式 单个参数的情形 多个参数的情形 点估计基础那一篇讨论到UMVUE了,这一讲试图给出无偏估计方差的一个下界.在统计理论1中推导的Fisher信息其实就是一 ...

  4. UA MATH566 统计理论1 充分统计量

    UA MATH566 统计理论1 充分统计量 指数族 自然形式 充分统计量 Neyman-Fisher因子分解定理 Bayes充分性 最小充分统计量 完备性 分布族的完备性 统计量的完备性 辅助统计量 ...

  5. UA MATH566 统计理论 Bayes统计基础

    UA MATH566 统计理论 Bayes统计基础 共轭分布 基于后验概率预测新的观测值 Bayes统计思想的基础是Bayes公式 P(Ci∣A)=P(A,Ci)P(A)=P(A∣Ci)P(Ci)∑i ...

  6. UA MATH566 统计理论 概念与定理总结

    UA MATH566 统计理论 概念与定理总结 Part 1 Exponential Family Tip 1: Form of Exponential Family f(x∣η)=h(x)exp⁡( ...

  7. UA MATH566 统计理论 位置-尺度参数族

    UA MATH566 统计理论 位置-尺度参数族 对位置-尺度参数族做位置-尺度变换 对正态分布做位置-尺度变换 对Gamma分布做位置-尺度变换 对指数分布做位置尺度变换 对均匀分布做位置-尺度变换 ...

  8. UA MATH566 统计理论 截断数据

    UA MATH566 统计理论 截断数据 Truncated Left-Trancated Right-Truncated 一个例子:双截断正态分布 双截断正态分布的完备最小充分统计量 这一讲介绍随机 ...

  9. UA MATH566 统计理论8 用Pivot构造置信区间

    UA MATH566 统计理论8 用Pivot构造置信区间 用Pivot构造置信区间 一般性方法 最优置信区间 置信区间的频率派解释 上一讲介绍的构造置信区间的方法是根据假设检验导出置信区间,但我们感 ...

最新文章

  1. numpy.histogram
  2. python编写自动化脚本 与shell_脚本安装Discuz论坛(shell + Python 实现自动化安装)...
  3. 请求参数绑定实体类型
  4. JS,Jquery 调用 C#WebService
  5. 如何在Windows 10中将您喜欢的设置固定到开始菜单
  6. 【数据结构与算法】【算法思想】 A *搜索算法
  7. core控制器属性注入的用处_asp.net-core – 如何使用Autofac和ASP.NET Core在控制器上启用属性注入?...
  8. Cover Protocol更新赔偿计划 新增三个新COVER代币获赔方
  9. Python Flask Web 第十一课 —— 使用 Flask-SQLAlchemy 管理数据库
  10. Labview双通道虚拟示波器完整程序
  11. 在linux中安装搜狗输入法,如何在ubuntu下安装搜狗输入法
  12. 垃圾分类数据集+垃圾分类识别训练代码(支持googlenet, resnet, inception_v3, mobilenet_v2)
  13. qpython3打开app_Android QPython3 扩展:调用其他App打开文件
  14. C++实现化学方程式配平
  15. win7关闭系统自动备份
  16. 牛客2023年情人节比赛
  17. 什么是金手指,金手指的设计要求有哪些?
  18. 停车场门禁控制系统的状态机
  19. 接班人不是克隆出来的:华为再显接班难
  20. 带你玩转有向图------有向图(详解)

热门文章

  1. Java运行时动态加载类之Class.forName
  2. Hadoop系列六:Hadoop之HBase篇
  3. latex基础(文字,图,表)
  4. 配置EditPlus为汇编的编辑工具
  5. windows 技术篇-判断某个ip地址相对于自己的主机是内网ip还是外网ip实例演示
  6. 最新!中国天气网api接口调用,key获取方式,数据请求秘钥获取,城市id获取方法
  7. FlexoCalendar周日历出错的解决方法
  8. JavaScript中call()和apply()的用法及区别
  9. 【upc 9523】Shopping II
  10. filter2D函数