UA MATH566 统计理论 Fisher信息量的性质上
UA MATH566 统计理论 Fisher信息量的性质上
- Fisher信息量的定义
- Fisher信息量的数学意义
C-R下界是由Fisher统计量定义的,在推导C-R下界的时候,我们只是把下界的逆定义成了Fisher信息量,但尚未探讨这个量的本质是什么?为什么要叫它信息量?它有哪些性质?以及怎么计算的问题。这一讲我们讨论前两个问题,下一讲讨论它的性质,计算则留到后续的博客结合例题介绍。
Fisher信息量的定义
某分布族为f(x,θ),θ∈Θf(x,\theta),\theta \in \Thetaf(x,θ),θ∈Θ,假设Θ⊂R\Theta \subset \mathbb{R}Θ⊂R,则此时的得分函数关于分布参数是一维的
S(x,θ)=∂logL(θ)∂θ=1f(x,θ)∂f(x,θ)∂θS(x,\theta) = \frac{\partial \log L(\theta)}{\partial \theta} = \frac{1}{f(x,\theta)} \frac{\partial f(x,\theta)}{\partial \theta}S(x,θ)=∂θ∂logL(θ)=f(x,θ)1∂θ∂f(x,θ)
则它的一阶矩为零,并称它的二阶矩为Fisher信息量
E[S(X,θ)]=0,E[S(X,θ)]2=I(θ)E[S(X,\theta)]=0,\ \ E[S(X,\theta)]^2 = I(\theta)E[S(X,θ)]=0, E[S(X,θ)]2=I(θ)
Fisher信息量的数学意义
下面说明为什么I(θ)I(\theta)I(θ)可以用来衡量信息的多少。在UA MATH636 信息论1 熵中我们介绍了熵、Divergence、互信息等用来衡量信息多少的量,下面我们就来讨论一下Fisher信息量与信息论中的这些信息度量之间的关系。
参考UA MATH636 信息论6 微分熵,微分熵的定义是
h(θ)=−E[logf(x,θ)]=−∫f(x,θ)logf(x,θ)dxh(\theta) = -E[\log f(x,\theta)] = -\int f(x,\theta) \log f(x,\theta)dxh(θ)=−E[logf(x,θ)]=−∫f(x,θ)logf(x,θ)dx
计算微分熵的差分
Δh=h(θ+Δθ)−h(θ)=−∫f(x,θ)[logf(x,θ+Δθ)−logf(x,θ)]dx\Delta h = h(\theta + \Delta\theta) - h(\theta) = -\int f(x,\theta)[ \log f(x,\theta + \Delta\theta)- \log f(x,\theta)]dxΔh=h(θ+Δθ)−h(θ)=−∫f(x,θ)[logf(x,θ+Δθ)−logf(x,θ)]dx
接下来做Taylor展开
logf(x,θ+Δθ)−logf(x,θ)=∂logf(x,θ)∂θΔθ+12!∂2logf(x,θ)∂2θ(Δθ)2+o(Δθ)2\log f(x,\theta + \Delta\theta)- \log f(x,\theta) = \frac{\partial \log f(x,\theta)}{\partial \theta}\Delta \theta +\frac{1}{2!} \frac{\partial^2 \log f(x,\theta)}{\partial^2 \theta}(\Delta \theta)^2 + o(\Delta \theta)^2logf(x,θ+Δθ)−logf(x,θ)=∂θ∂logf(x,θ)Δθ+2!1∂2θ∂2logf(x,θ)(Δθ)2+o(Δθ)2
下面计算那两个导数
∂logf(x,θ)∂θ=f′(x,θ)f(x,θ),∂2logf(x,θ)∂2θ=f′′(x,θ)f(x,θ)−[f′(x,θ)]2f2(x,θ)\frac{\partial \log f(x,\theta)}{\partial \theta} = \frac{f'(x,\theta)}{f(x,\theta)},\ \frac{\partial^2 \log f(x,\theta)}{\partial^2 \theta} = \frac{f''(x,\theta)}{f(x,\theta)}-\frac{[f^{'}(x,\theta)]^2}{f^2(x,\theta)}∂θ∂logf(x,θ)=f(x,θ)f′(x,θ), ∂2θ∂2logf(x,θ)=f(x,θ)f′′(x,θ)−f2(x,θ)[f′(x,θ)]2
把这些结论带入差分中,
Δh=−∫f(x,θ)[f′(x,θ)f(x,θ)Δθ+12(f′′(x,θ)f(x,θ)−[f′(x,θ)]2f2(x,θ))(Δθ)2+o(Δθ)2]dx\Delta h = -\int f(x,\theta)[ \frac{f'(x,\theta)}{f(x,\theta)}\Delta \theta +\frac{1}{2}(\frac{f''(x,\theta)}{f(x,\theta)}-\frac{[f^{'}(x,\theta)]^2}{f^2(x,\theta)})(\Delta \theta)^2+o(\Delta \theta)^2]dx Δh=−∫f(x,θ)[f(x,θ)f′(x,θ)Δθ+21(f(x,θ)f′′(x,θ)−f2(x,θ)[f′(x,θ)]2)(Δθ)2+o(Δθ)2]dx
我们逐项分析,第一项
∫f(x,θ)f′(x,θ)f(x,θ)Δθdx=E[S(X,θ)]Δθ=0\int f(x,\theta) \frac{f'(x,\theta)}{f(x,\theta)}\Delta \theta dx = E[S(X,\theta)]\Delta \theta = 0∫f(x,θ)f(x,θ)f′(x,θ)Δθdx=E[S(X,θ)]Δθ=0
最后一项积分后还是高阶无穷小量,可以忽略
∫o(Δθ)2dx=o(Δθ)2\int o(\Delta \theta)^2 dx = o(\Delta \theta)^2∫o(Δθ)2dx=o(Δθ)2
第二项中的第一部分
∫f(x,θ)f′′(x,θ)f(x,θ)dx=E[∂S(X,θ)∂θ]=∂∂θE[S(X,θ)]=0\int f(x,\theta )\frac{f''(x,\theta)}{f(x,\theta)} dx = E[\frac{\partial S(X,\theta)}{\partial \theta}] = \frac{\partial}{\partial \theta}E[S(X,\theta)] = 0∫f(x,θ)f(x,θ)f′′(x,θ)dx=E[∂θ∂S(X,θ)]=∂θ∂E[S(X,θ)]=0
因此最后只剩下
Δh=12∫f(x,θ)[f′(x,θ)]2f2(x,θ)(Δθ)2dx=E[∂logL(x,θ)∂θ∂logL(x,θ)∂θ](Δθ)2=12I(θ)(Δθ)2\Delta h = \frac{1}{2} \int f(x,\theta)\frac{[f^{'}(x,\theta)]^2}{f^2(x,\theta)}(\Delta \theta)^2dx \\= E[\frac{\partial \log L(x,\theta)}{\partial \theta}\frac{\partial \log L(x,\theta)}{\partial \theta}](\Delta \theta)^2 = \frac{1}{2}I(\theta)(\Delta \theta)^2Δh=21∫f(x,θ)f2(x,θ)[f′(x,θ)]2(Δθ)2dx=E[∂θ∂logL(x,θ)∂θ∂logL(x,θ)](Δθ)2=21I(θ)(Δθ)2
如果是多维分布,那么
Δh=12ΔθTI(θ)Δθ\Delta h = \frac{1}{2} \Delta \theta^TI(\theta)\Delta \thetaΔh=21ΔθTI(θ)Δθ
也就是说,熵的差分可以表示为以Fisher信息量为矩阵的二次型。
UA MATH566 统计理论 Fisher信息量的性质上相关推荐
- UA MATH566 统计理论 Fisher信息论的性质下
UA MATH566 统计理论 Fisher信息量的性质下 辅助统计量的Fisher信息为0 分布族参数变换后的Fisher信息 统计量的Fisher信息的有界性 下面介绍一些Fisher信息量的常用 ...
- UA MATH566 统计理论 一个例题 Hierarchical Model的统计性质
UA MATH566 统计理论 一个例题 Hierarchical Model的统计性质 Y∣X∼Pois(X)Y|X \sim Pois(X)Y∣X∼Pois(X) and X∼Γ(α,β)X \s ...
- UA MATH566 统计理论2 C-R不等式简介
UA MATH566 统计理论2 C-R不等式 单个参数的情形 多个参数的情形 点估计基础那一篇讨论到UMVUE了,这一讲试图给出无偏估计方差的一个下界.在统计理论1中推导的Fisher信息其实就是一 ...
- UA MATH566 统计理论1 充分统计量
UA MATH566 统计理论1 充分统计量 指数族 自然形式 充分统计量 Neyman-Fisher因子分解定理 Bayes充分性 最小充分统计量 完备性 分布族的完备性 统计量的完备性 辅助统计量 ...
- UA MATH566 统计理论 Bayes统计基础
UA MATH566 统计理论 Bayes统计基础 共轭分布 基于后验概率预测新的观测值 Bayes统计思想的基础是Bayes公式 P(Ci∣A)=P(A,Ci)P(A)=P(A∣Ci)P(Ci)∑i ...
- UA MATH566 统计理论 概念与定理总结
UA MATH566 统计理论 概念与定理总结 Part 1 Exponential Family Tip 1: Form of Exponential Family f(x∣η)=h(x)exp( ...
- UA MATH566 统计理论 位置-尺度参数族
UA MATH566 统计理论 位置-尺度参数族 对位置-尺度参数族做位置-尺度变换 对正态分布做位置-尺度变换 对Gamma分布做位置-尺度变换 对指数分布做位置尺度变换 对均匀分布做位置-尺度变换 ...
- UA MATH566 统计理论 截断数据
UA MATH566 统计理论 截断数据 Truncated Left-Trancated Right-Truncated 一个例子:双截断正态分布 双截断正态分布的完备最小充分统计量 这一讲介绍随机 ...
- UA MATH566 统计理论8 用Pivot构造置信区间
UA MATH566 统计理论8 用Pivot构造置信区间 用Pivot构造置信区间 一般性方法 最优置信区间 置信区间的频率派解释 上一讲介绍的构造置信区间的方法是根据假设检验导出置信区间,但我们感 ...
最新文章
- numpy.histogram
- python编写自动化脚本 与shell_脚本安装Discuz论坛(shell + Python 实现自动化安装)...
- 请求参数绑定实体类型
- JS,Jquery 调用 C#WebService
- 如何在Windows 10中将您喜欢的设置固定到开始菜单
- 【数据结构与算法】【算法思想】 A *搜索算法
- core控制器属性注入的用处_asp.net-core – 如何使用Autofac和ASP.NET Core在控制器上启用属性注入?...
- Cover Protocol更新赔偿计划 新增三个新COVER代币获赔方
- Python Flask Web 第十一课 —— 使用 Flask-SQLAlchemy 管理数据库
- Labview双通道虚拟示波器完整程序
- 在linux中安装搜狗输入法,如何在ubuntu下安装搜狗输入法
- 垃圾分类数据集+垃圾分类识别训练代码(支持googlenet, resnet, inception_v3, mobilenet_v2)
- qpython3打开app_Android QPython3 扩展:调用其他App打开文件
- C++实现化学方程式配平
- win7关闭系统自动备份
- 牛客2023年情人节比赛
- 什么是金手指,金手指的设计要求有哪些?
- 停车场门禁控制系统的状态机
- 接班人不是克隆出来的:华为再显接班难
- 带你玩转有向图------有向图(详解)