今天开始学模式识别与机器学习Pattern Recognition and Machine Learning (PRML)书,章节1.2,Probability Theory (上)
Pattern Recognition and Machine Learning (PRML)书,章节1.2,Probability Theory (上)
这一节是浓缩了整本书关于概率论的精华,突出一个不确定性(uncertainty)的理解。我看的比较慢,是想要细扣一下,而且写blog码字也很慢,不过我想留下点痕迹所以会写下去。前面几节其实很重要,所以单独一节甚至半节写一个blog,后面如果一个章节在讨论一个topic我可能就会一个章节一个blog,比如第九章讲EM算法,我应该就用一个blog带过。
(入门而已,高手一笑而过吧~。~)
对于书中的公式如果重要我都会推导一下,然后用黄色表示一下,以后的章节也是如此。如果大家也看PRML书建议也自己推几个公式,加深理解。如果出现“注”,就是我自己加的描述。
首先从一个例子说起:有两个盒子,一个红色盒子里面有2个苹果(绿)+6个桔子(黄),一个蓝色盒子里面有3个苹果+1个桔子,具体可以见图1.9。随机挑选一个盒子,然后从盒子里随机拿出一个水果,观察是什么后放回原处,重复这个过程很多次。
我们定义挑选红色盒子的次数为总次数的40%,挑选蓝色盒子的次数为60%。
在这个例子中,盒子的颜色是一个随机变量,我们称之为B,它有两个取值r(red)和b(blue);水果也是一个随机变量,称之为F,它的取值是a(apple)和o(orange)。
首先从频次的角度理解概率,选择红/蓝盒子的概率分别为:
注:概率必须在[0,1]范围内,且覆盖所有可能的互斥事件的概率和为1。
我们现在可以问类似这样的问题:(1)一次挑选得到苹果的概率是多少?(2)如果我们得到的是桔子,那么这一次挑选的是红盒子的概率是多少?
=============================================华丽的分割线==========================================================
在解决上述问题前我们先跳出这个例子,来考虑更一般的情况:见图1.10
对两个随机变量的大量重复实验,把得到(xi, yi)的结果次数记录到n_ij中,图中一列之和表示为ci(表示所有出现xi的总次数),一行之和为rj,为出现yj的总次数。得到X=xi和Y=yi的联合概率:
以及X=xi的边缘概率:
还可以得到条件概率,给定xi得到yj的概率:
通过以上推导,我们可以得到下面的关系:
上面的(1.7)式子叫做加法规则sum rule,(1.9)叫做乘法规则product rule, 是概率论中最基本的两个规则了:
注:这两个rule几乎是最重要的方法了。
通过这两个规则可以得到在机器学习中非常重要的贝叶斯理论:
其中P(X)可以对所有的Y展开:
可以理解为normalization,使得(1.12)左边的条件概率在所有的Y取值下,概率之和为1。
=============================================华丽的分割线============================================================
好了,现在跳回到前面的两个盒子的例子,(在下面的书写中我们会强调一下随机变量(大写字母)以及它们的实例(小写字母),后面可能就会写的简略一些)
这几个概率表达式都是直接得到的,题目中给了,比如第三条:盒子为红色情况下,抽到水果为苹果的概率为1/4。 且满足,即同一条件下所有可能性之和为1。OK, 现在我们可以回答“抽到苹果的概率”这个问题了:
即穷举所有盒子的可能,以及每一种盒子下抽到苹果的概率之和。对应的,抽到桔子的概率就是p(F=o) = 1- 11/20 = 9/20。
好,现在回答第二个问题:如果我们得到的是桔子,那么这一次挑选的是红盒子的概率是多少?
通过贝叶斯公式:
答案通过贝叶斯公式很容易得到,而我们所需的信息都可以从前面的基本信息中得到。在这个例子中,我们已经设计到很多概念,比如对盒子的选取有一个预估,也就是P(B),我们称之为先验概率,因为它是在我们观测抽取结果之前就已知了的(决定了的);
然后我们的第二个问题,已知抽到是桔子的情况下求盒子红色的概率,其实就是估计盒子为红色的后验概率,因为是在我们观察到随机变量F之后得到的估计。由此可见当我们有一定的观察值的时候我们就不能从直观的理解去判断一个事件,比如先验告诉我们说有60%的可能是选取蓝盒子,但式子是(1.23)说明在有观察o的情况下,红盒子的概率有2/3,比蓝盒子大多了。
还要介绍一下两个随机变量的边缘分布的乘积等于他们的联合分布,即p(X,Y) = p(X)P(Y),那么这两个随机变量相互独立,也有p(Y|X) = p(Y)。
1.2.1 概率密度
前面介绍都是从离散变量的角度,我们需要重新考虑连续变量的概率定义。
如果一个实数连续变量,其落在区间的概率是,当时,那么小p(x)就称之为x的概率密度。概率定义成:
注:这里都用小p来表示容易混淆,前面的p是代表概率,后面p(x)是概率密度。
(连续变量就没有x为某一具体值的概率定义了,因为有无穷的取值,都是说落在一个区段内的概率)
累计分布函数(cumulative distribution)的定义是x处在区间的概率:
满足P’(x) = p(x)。在图1.12中我们绘制了概率密度小p和累计分布函数大P,绿色的面积是落在小区间内的概率。
前面讨论过的sum rule 和product rule在连续变量情况下也适用:
1.2.2 期望和方差
期望:一个函数f(x) 在一个概率分布p(x)下的平均取值就是f(x)的期望,定义为:
对于离散情况而言,期望就是一个所有可能值的加权和。对于连续变量就用对应的积分形式:
注:这里两个小p有不同,上面在离散情况下已经是理解成概率了,而下面(1.34)中小p是概率密度。
对期望的一种直观估计是所有观察点的平均:
当N趋于无穷大时,取等号。这样的平均值我们是经常用到的。
如果f有多个变量,我们一般会用下标来表示是针对哪一个变量的分布(变化)考虑的,比如
就是说f的关于变量x的期望,事实上,上式是一个以y为变量的函数。类似的,我们也可用定义条件期望:
方差:方差可以估计一个函数f在他的期望附近变化的剧烈程度,定义为
如果考虑变量x本身,也可用x的方差:
注:(书里跳过了)这个等式实际上是从方差的定义推导出来的:
另外,对于两个随机变量我们定义协方差:
表示x,y一起变化的程度,如果x和y相互独立,那么协方差为0。可以看到单个变量的方差是协方差的特殊情况,x=y。
如果x和y表示的是两个向量(vector)变量,x和y是列向量,那么协方差是一个矩阵:
好了,期望和方差介绍到这里,这两个概念几乎贯穿机器学习的所有领域。今天先记录这一些吧,章节1.2确实很重要,这里只是上半部分,下半部分过几天整理了再放出吧。
吐槽一下,写了这么几页就花了2小时+(动作太慢?),主要是语句都是经过梳理的,虽然公式和图表都是copy的,但是依然要花不少时间,记下来我自己加深下印象也是有好处。
1.2的下半部分包括了贝叶斯定理和高斯分布的介绍,非常重要。基本上章节1.2组成了概率统计学习的基础内容,建议初学者好好理解下。
今天开始学模式识别与机器学习Pattern Recognition and Machine Learning (PRML)书,章节1.2,Probability Theory (上)相关推荐
- 今天开始学模式识别与机器学习Pattern Recognition and Machine Learning (PRML),章节1.2,Probability Theory (下)
今天开始学Pattern Recognition and Machine Learning (PRML),章节1.2,Probability Theory (下) 今天把1.2写完,这一节讲了很多重要 ...
- 今天开始学模式识别与机器学习Pattern Recognition and Machine Learning 书,章节1.1,多项式曲线拟合(Polynomial Curve Fitting)
转载自:http://blog.csdn.net/xbinworld/article/details/8834155 Pattern Recognition and Machine Learning ...
- 今天开始学Pattern Recognition and Machine Learning (PRML),章节1.6,Information Theory信息论简介
今天开始学Pattern Recognition and Machine Learning (PRML),章节1.6,Information Theory信息论简介 前面有朋友说写的东西太理论了,我想 ...
- 今天开始学Pattern Recognition and Machine Learning (PRML),章节5.2-5.3,Neural Networks神经网络训练(BP算法)
这一篇是整个第五章的精华了,会重点介绍一下Neural Networks的训练方法--反向传播算法(backpropagation,BP),这个算法提出到现在近30年时间都没什么变化,可谓极其经典.也 ...
- Reading papers_6(Pattern Recognition And Machine Learning一书,ing...)
第一章,引论 本章是本书的纲领,有着统领全局的味道. 首先通过一个多项式曲线拟合的例子引出了本领域的一些概念,比如线性模型,过拟合,错误函数,模型比较和模型选择,最大似然,正则化,岭回归,权值衰减,验 ...
- PRML:Pattern Recognition And Machine Learning 相关资料整理与下载
Pattern Recognition And Machine Learning 相关资料整理与下载 前言 一.PRML英文原文 二.PRML中文翻译版 三.PRML勘误与附加评论 四.读者整理的笔记 ...
- Pattern Recognition And Machine Learning 第一章
目录 1 绪论 1.1 例子:多项式曲线拟合 1.2 概率论(参考) 1.2.1 概率密度(参考) 1.2.2 期望和协方差(参考.参考.参考) 1.2.3 贝叶斯概率(参考.参考) 1.2.4 高斯 ...
- 学习笔记-----《Pattern Recognition and Machine Learning》Christopher M. Bishop
Preface 模式识别这个词,以前一直不懂是什么意思,直到今年初,才开始打算读这本广为推荐的书,初步了解到,它的大致意思是从数据中发现特征,规律,属于机器学习的一个分支. 在前言中,阐述了什么是模式 ...
- pattern recognition and machine learning基本思想1:最大似然估计
在prml中,解决问题最常用的方法之一就是最大似然法,这里对该方法进行简单的介绍. Example 1: 高斯分布: Unknown 样本均值为 协方差矩阵 . 均值未知. 为样本点. 另求导公式等 ...
最新文章
- jieba中文分词源码分析(四)
- Clion从入门到精通
- mantelhean.test r语言_R语言基础-检验与分析函数
- 如何筑起第二座“长城”?长城汽车:唯有科技
- Ubantu 16.04中文输入问题解疑
- Windows 7 Natvie VHD
- 大系统观:第2章 系统论概述
- COALESCE操作符
- Android在第三方应用程序系统应用尽早开始,杀死自己主动的第三方应用程序,以重新启动...
- mysql 更改root密码字段不存在_初次登陆MySQL修改密码是出现Unknown column 'password' in 'field list'的解决方法...
- 看到程序员坐在电脑前,如何判断程序员正在做什么?只需看这些
- 【题解】跳房子-C++
- 8.霍夫变换:线条——介绍、参数模型、直线拟合_1
- c++自由读写配置ifstream(一)
- php+ioncube',windows下php安装ionCube
- 关注C-RAN 的五大理由
- RoadRunner软件初步使用教程
- java做 binggo,CONTRIBUTING.md
- android短信验证码登录,Android注册登录实时自动获取短信验证码
- 白开水最耐喝,最解内心的渴
热门文章
- 爬过这 6 个坡,你就能对 Linux 操作系统了如指掌
- 关于用户画像产品构建和应用的几点经验
- 机器学习实战读书笔记--k邻近算法KNN
- 有赞统一日志平台初探
- 在 Java 中高效使用锁的技巧--转载
- nginx学习笔记(8)虚拟主机名---转载
- window xp Apache与Tomcat集群配置--转载
- python查询数据库,打印查询结果过程中出现'NoneType' object is unsubscriptable
- [搜索]一种改进的召回率准确率公式计算方式
- 白话Elasticsearch13-深度探秘搜索技术之基于multi_match+most fields策略进行multi-field搜索