条件期望

引入1

在概率空间上(Ω,F,P)(\Omega, \mathcal{F},P)(Ω,F,P)上,给定事件BBB,那么P(A∣B)=P(A∩B)P(B)P(A|B)=\frac{P(A\cap B)}{P(B)}P(A∣B)=P(B)P(A∩B)​称为条件概率,令PB={P(A∣B):A∈F}P_B=\{P(A|B):A\in \mathcal{F} \}PB​={P(A∣B):A∈F},(Ω,F,PB)(\Omega, \mathcal{F},P_B)(Ω,F,PB​)也构成概率空间,在这个概率空间中随机变量XXX求期望就是:
E(X∣B)=∫ΩXdPB=1P(B)∫BXdP.E(X|B)=\int_\Omega X dP_B=\frac{1}{P(B)}\int_B X dP. E(X∣B)=∫Ω​XdPB​=P(B)1​∫B​XdP.

引入2

如果条件G\mathcal{G}G具有可列个可测分割,原子记为{B1,B2,…,Bn,…}\{B_1, B_2,\dots, B_n, \dots\}{B1​,B2​,…,Bn​,…},那么条件期望E(X∣G)(ω)E(X|\mathcal{G})(\omega)E(X∣G)(ω)是一个随机变量。当ω∈B1\omega\in B_1ω∈B1​时,E(X∣G)(ω)=E(X∣B1)E(X|\mathcal{G})(\omega)=E(X|B_1)E(X∣G)(ω)=E(X∣B1​),同理,因此可以写成
E(X∣G)(ω)=∑i=1∞E(X∣Bi)1Bi.E(X|\mathcal{G})(\omega)=\sum_{i=1}^{\infty}E(X|B_i)1_{B_i}.E(X∣G)(ω)=i=1∑∞​E(X∣Bi​)1Bi​​.

这里需要说明,如果ω1,ω2∈Bi\omega_1, \omega_2 \in B_iω1​,ω2​∈Bi​,那么E(X∣Bi)(ω1)=E(X∣Bi)(ω2)E(X|B_i)(\omega_1)=E(X|B_i)(\omega_2)E(X∣Bi​)(ω1​)=E(X∣Bi​)(ω2​),这是因为如果E(X∣Bi)(ω1)≠E(X∣Bi)(ω2)E(X|B_i)(\omega_1)\ne E(X|B_i)(\omega_2)E(X∣Bi​)(ω1​)​=E(X∣Bi​)(ω2​),设这两个值为c1,c2c_1, c_2c1​,c2​,那么Bi∩{ω:E(X∣Bi)=c1}B_i\cap \{\omega:E(X|B_i)=c_1\}Bi​∩{ω:E(X∣Bi​)=c1​}和Bi∩{ω:E(X∣Bi)=c2}B_i\cap \{\omega:E(X|B_i)=c_2\}Bi​∩{ω:E(X∣Bi​)=c2​}都是非空子集,和BiB_iBi​是原子矛盾。

对于B=∑BiB=\sum B_iB=∑Bi​,可以通过E(X∣G)(ω)E(X|\mathcal{G})(\omega)E(X∣G)(ω)求出来,具体的,
P(B)E(X∣B)=∫BXdP=∑∫BiXdP=∑E(X∣Bi)P(Bi)=∑i=1∞E(X∣Bi)1Bi1BP(Bi)=∫BE(X∣G)dP.P(B)E(X|B)=\int_BXdP=\sum\int_{B_i}XdP=\sum E(X|B_i)P(B_i)\\ =\sum_{i=1}^{\infty}E(X|B_i)1_{B_i}1_{B}P(B_i)=\int_BE(X|\mathcal{G})dP. P(B)E(X∣B)=∫B​XdP=∑∫Bi​​XdP=∑E(X∣Bi​)P(Bi​)=i=1∑∞​E(X∣Bi​)1Bi​​1B​P(Bi​)=∫B​E(X∣G)dP.
第一、三个等号是条件期望的定义。
我们得到一个关系是对∀B∈G,\forall B \in \mathcal{G},∀B∈G,
∫BXdP=∫BE(X∣G)dP.\int_BXdP=\int_BE(X|\mathcal{G})dP. ∫B​XdP=∫B​E(X∣G)dP.
这便引出了描述性定义,和上面的定义是等价的。
若Z(ω)Z(\omega)Z(ω)在G\mathcal{G}G上可测,且满足上面的式子,那么就是条件期望。

一般情形

在一般情形下不能像上面那样找到一列原子分割,但是描述性定义仍然成立。条件期望作为随机变量,不在PPP的零测集上定义。

条件期望的性质

1、E[E[X∣G]]=EXE[E[X|\mathcal{G}]]=EXE[E[X∣G]]=EX
∫ΩE[X∣G]dP=∫ΩXdP=EX\int_\Omega E[X|\mathcal{G}]dP=\int_\Omega XdP=EX ∫Ω​E[X∣G]dP=∫Ω​XdP=EX
2、若X∈GX\in \mathcal{G}X∈G,则E[XY∣G]=XE[Y∣G]a.s.E[XY|\mathcal{G}]=XE[Y|\mathcal{G}] a.s.E[XY∣G]=XE[Y∣G]a.s.
只考虑X=1B1,B1∈GX=1_{B_1},B_1\in \mathcal{G}X=1B1​​,B1​∈G的情形,
∫BE[XY∣G]dP=∫B∩B1YdP=∫BE[Y∣G]dP=∫B∩B11B1E[Y∣G]dP\int_BE[XY|\mathcal{G}]dP=\int_{B\cap {B_1}}YdP=\int_{B}E[Y|\mathcal{G}]dP=\int_{B\cap {B_1}}1_{B_1}E[Y|\mathcal{G}]dP ∫B​E[XY∣G]dP=∫B∩B1​​YdP=∫B​E[Y∣G]dP=∫B∩B1​​1B1​​E[Y∣G]dP
由条件期望在a.s.a.s.a.s.下的唯一性得到:
1B1E[Y∣G]=E[1B1Y∣G]a.s.1_{B_1}E[Y|\mathcal{G}]=E[1_{B_1}Y|\mathcal{G}]\ a.s. 1B1​​E[Y∣G]=E[1B1​​Y∣G] a.s.
3、若H⊂G\mathcal{H}\subset\mathcal{G}H⊂G,则E[X∣H]=E[E(X∣G)∣H]=E[E(X∣H)∣G]E[X|\mathcal{H}]=E[E(X|\mathcal{G})|\mathcal{H}]=E[E(X|\mathcal{H})|\mathcal{G}]E[X∣H]=E[E(X∣G)∣H]=E[E(X∣H)∣G]
对于∀A∈H\forall A \in \mathcal{H}∀A∈H
∫AE[E(X∣G)∣H]dP=∫AE(X∣G)dP=∫AXdP=∫AE[X∣H]dP\int_AE[E(X|\mathcal{G})|\mathcal{H}]dP=\int_AE(X|\mathcal{G})dP=\int_AXdP=\int_AE[X|\mathcal{H}]dP ∫A​E[E(X∣G)∣H]dP=∫A​E(X∣G)dP=∫A​XdP=∫A​E[X∣H]dP
对于第二个等号,E(X∣H)∈GE(X|\mathcal{H})\in \mathcal{G}E(X∣H)∈G,因此直接脱出。

条件期望的测度论解释相关推荐

  1. 怎么求中位数和分位数 概率密度函数_张晓峒分位数回归讲义解析.doc

    第15章 分位数回归模型 15.1 总体分位数位数 15.位数的估计 .3 分位数回归 .4 分位数回归模型的估计 .5 分位数回归模型的 15.6 分位数的计算分位数回归的 15.7 分位数回归的 ...

  2. 模型的可解释性:部分依赖图PDP和个体条件期望图ICE

    来源:Deephub Imba 本文约1800字,建议阅读5分钟 本文我们通过一个简单据集的回归示例了解了部分依赖图 (PDP) 和个体条件期望 (ICE) 图是什么,以及如何在 Python 中制作 ...

  3. UA MATH563 概率论的数学基础 鞅论初步4 Radon-Nikodym定理,条件期望的存在唯一性

    UA MATH563 概率论的数学基础 鞅论初步4 Radon-Nikodym定理,条件期望的存在唯一性 延续上一讲对条件期望性质的讨论. 性质八:存在唯一性.绝对可积性 E[X∣F]E[X|\mat ...

  4. Paper:《A Unified Approach to Interpreting Model Predictions—解释模型预测的统一方法》论文解读与翻译

    Paper:<A Unified Approach to Interpreting Model  Predictions-解释模型预测的统一方法>论文解读与翻译 导读:2017年11月25 ...

  5. Wasserstein metric的通俗解释

    Wasserstein metric的通俗解释 ​关注他 166 人赞同了该文章 本文收录在无痛的机器学习第二季目录. Wasserstein GAN可以算是GAN界的一大突破了,有关它的介绍和使用心 ...

  6. 关于如何解释机器学习的一些方法

    关于如何解释机器学习的一些方法 到现在你可能听说过种种奇闻轶事,比如机器学习算法通过利用大数据能够预测某位慈善家是否会捐款给基金会啦,预测一个在新生儿重症病房的婴儿是否会罹患败血症啦,或者预测一位消费 ...

  7. 测度论--长度是怎样炼成的[zz]

    这篇文章是我见过的写得比较好的关于测度论的文章,它深入浅出,特转载于此,供更多人参考/学习 [测度论学习]长度是怎样炼成的 (1) 长度是怎样炼成的?  源于 http://www.blog.edu. ...

  8. 【人工智能系列经典图书翻译】可解释机器学习(第二版) 第8章 全局模型无关方法

    第 8 章 全局模型无关方法 全局方法描述了机器学习模型的一种惯例做法.与全局方法相对应的是局部方法.全局方法通常表示为基于数据分布的预期值.例如,部分依赖图是一个特征效应图,是所有其他特征都被边缘化 ...

  9. 【转贴+排版】测度论简介——一个通往异世界的大门

    转载源 这种长度的东西我居然能耐着性子看完-嘛-就当成这学期实分析的特殊情况下的总结得了-和概率统计完全没关系-嘛- http://yinlianqian.blog.163.com/blog/stat ...

  10. TCP三次握手和四次挥手的解释

    基础知识 在TCP层,有个FLAGS字段,这个字段有以下几个标识:SYN, FIN, ACK, PSH, RST, URG. 其中,对于我们日常的分析有用的就是前面的五个字段. 它们的含义是: SYN ...

最新文章

  1. Git远程和分支管理
  2. Python学习:基本概念
  3. ionic angularJS input 相关指令 以及定时器 的使用
  4. 浙江省计算机vb二级考试题库,浙江省计算机二级vb上机试题题库..doc
  5. c++ 字符串拼接_字符串拼接新姿势:StringJoiner
  6. Python fire官方文档教学(自动生成命令行,个人觉得意义不大,不如argparse)
  7. web前端基础(11html5和css)
  8. tomcat java.ext.dirs_tomcat classloader 加载class顺序
  9. 第3章(3.2~3.7节)线性/Softmax回归实现【深度学习基础】--动手学深度学习【Tensorflow2.0版本】
  10. eclipse安装svn插件时,Subclipse与Subversive的选择与区别
  11. 火狐浏览器 Mozilla Firefox v36.0.3 便携增强版
  12. 猫哥教你写爬虫 041--模拟登录-cookie
  13. 员工转正申请书_试用期员工转正申请书范文5篇
  14. Shiro的在Springboot中的使用
  15. Unity3D C#数学系列之矩阵基础
  16. CString的彻底解析
  17. [开源工具]小鸟云虚拟主机+wordpress搭建个人博客(不喜勿喷)
  18. 关系抽取(二)远程监督方法总结
  19. fork与vfork
  20. ListView字母快速索引 自动搜索

热门文章

  1. 【C语言】使用Qt5学习C语言编写Hello World
  2. 288芯光缆交接箱光交箱图文详解
  3. Spark Sql编程
  4. ASP入门教程 1小时ASP入门,非常简单
  5. 开源容灾备份工具介绍
  6. MYSQL攻击全攻略
  7. winpe硬盘安装linux,winpe+linux安装到移动硬盘
  8. ssh框架的基本运用
  9. 利用Github服务器做一个软件自动升级系统
  10. Python的伪造数据生成器:Faker