概率论

0. 前言

本文主要旨在对概率论的基础概念与知识进行概要的总结,以便于使用到时可以参考。
概率论是数理统计的基础,也是很多机器学习模型的支撑,概率论在机器学习中占主要地位,因为概率论为机器学习算法的正确性提供了理论依据。


1. 概率论的基本概念

1.1 基本概念
随机实验(E)

(1)可以在相同的条件下重复地进行
(2)每次实验的可能结果不止一个,并且事先明确知道实验的所有可能结果
(3)每次试验将出现哪一个结果无法预知
例子:抛一枚硬币,观察正面,反面出现的情况

样本空间 (Ω)

随机试验所有可能的结果组成的集合

样本点

样本空间的元素,即每个可能的结果

随机事件

随机试验E的样本空间S的子集称为随机事件

基本事件

样本空间的单个元素,一个可能结果构成的集合

必然事件(全集)、不可能事件(空集)
事件的关系与事件的运算 (类似于集合运算)

包含关系、和(并)并事件、积(交)事件、差事件、互不相容(互斥)、逆事件(对立事件)

运算规律

1、交换律:
A∪B=B∪AA∪B = B∪AA∪B=B∪A
A∩B=B∩AA ∩ B = B ∩ AA∩B=B∩A
2、 结合律:
A∪(B∪C)=(A∪B)∪CA∪ (B∪ C) = (A∪ B) ∪ CA∪(B∪C)=(A∪B)∪C
A∩(B∩C)=(A∩B)∩CA ∩ (B ∩ C)=(A ∩ B) ∩ CA∩(B∩C)=(A∩B)∩C
3、分配律:
A∪(B∩C)=(A∪B)∩(A∪C)A∪ (B ∩ C) = (A∪ B) ∩ (A ∪ C)A∪(B∩C)=(A∪B)∩(A∪C)
A∩(B∪C)=(A∩B)∪(A∩C)A ∩ (B∪C) = (A ∩ B) ∪ (A ∩ C)A∩(B∪C)=(A∩B)∪(A∩C)
A∩(B−C)=(A∩B)−(A∩C)A ∩ (B - C) = (A ∩ B) - (A ∩ C)A∩(B−C)=(A∩B)−(A∩C)
4、德摩根律(对偶律):
A∪B‾=A‾∩B‾\overline{A ∪ B} = \overline{A} ∩ \overline{B}A∪B=A∩B
A∩B‾=A‾∪B‾\overline{A ∩ B} = \overline{A} ∪ \overline{B}A∩B=A∪B
常用结论:
AA‾=ΦA\overline{A} = ΦAA=Φ; A∪A‾=ΩA∪\overline{A} = ΩA∪A=Ω;
A∪B=A+B−AB=(A−B)+(B−A)+ABA ∪ B = A+ B − AB = (A − B) + (B − A) + ABA∪B=A+B−AB=(A−B)+(B−A)+AB


1.2 频率与概率
频率

定义:在相同条件下,进行n次试验,在这n次试验中,事件A发生的次数,称为事件A发生的频数,比值:f = 频数/试验次数,称为事件A发生的频率。
基本性质:
(1)0 <= f <= 1 ;
(2)f(Ω) = 1;
(3)两两互不相融事件的可列可加性。
稳定性:当试验重复次数很大时,频率趋于稳定,可以用来表征事件A发生可能性的大小。

概率

定义: 设E是随机试验,样本空间为Ω,对于E的每一个事件A赋予一个实数,记为P(A),称为A的概率。
性质:
(1)非负性 0 =< P(A) <= 1;
(2)正则性 P(Ω) = 1;
(3)可列可加性 若有互不相容的事件:A1,A2,A3,...A_1, A_2, A_3, ...A1​,A2​,A3​,...,
\quad\quad则 P(∪Aj)=∑P(Aj)P(∪A_j) = ∑ P(A_j)P(∪Aj​)=∑P(Aj​)


1.3 等可能概型(古典概型)

设E是一个试验,满足:(1)只有有限多个样本点;(2)每个样本点发生的可能性相同(等可能性)。
典型例子:抛硬币
长期实践的发现:“概率很小的事件在一次试验中几乎是不发生”(称之为实际推理原理)

排列
排列:从n个不同元素中,任取m(m ≤ n,m与n均为自然数)个元素按照一定的顺序排成一列,称为从n个不同元素中取出m个元素的一个排列。
排列数:Anm=n(n−1)(n−2)……(n−m+1)=n!(n−m)!A_n^m = n(n-1)(n-2)……(n-m+1) = {n!\over(n-m)!}Anm​=n(n−1)(n−2)……(n−m+1)=(n−m)!n!​
组合
组合:从n个不同元素中,任取m(m≤n)个元素并成一组,叫做从n个不同元素中取出m个元素的一个组合。
组合数:Cnm=A(n,m)m!C_n^m = {A(n,m) \over m!}Cnm​=m!A(n,m)​
公式:
Cnm=Cnn−mC_n^m = C_n^{n-m}Cnm​=Cnn−m​
Cnm+Cnm−1=Cn+1mC_n^m + C_n^{m-1} = C_{n+1}^mCnm​+Cnm−1​=Cn+1m​
Cn0+Cn1+...+Cnn=2n=(1+1)nC_n^0 + C_n^1 + ... + C_n^n = 2^n = (1 + 1)^nCn0​+Cn1​+...+Cnn​=2n=(1+1)n

例1:
袋子中有a个黑球,b个白球,先一只只地摸出来,求:第k次摸到黑球的概率(1<= k <= a+b)
解法1:(排列)
思路:
样本空间为a+b个球的全排列,有利场合为第k个球确定为黑球,有a种可能,然后剩下a+b-1个球随机排列。
样本空间:(a+b)!
有利场合:a×(a+b-1)!
故:
P=a×(a+b−1)!(a+b)!=aa+bP = {a×(a+b-1)! \over (a+b)!} = {a \over a+b}P=(a+b)!a×(a+b−1)!​=a+ba​
解法2:(组合)
思路:
样本空间为从a+b个格子中选取a个放置黑球,其余一定放白球,故为Ca+baC^a_{a+b}Ca+ba​;有利场合为第k个确定放置黑球,从剩下a+b-1个格子中选取a-1个格子放置剩下的黑球,其余放白球,故为Ca+b−1a−1C^{a-1}_{a+b-1}Ca+b−1a−1​。
样本空间:Ca+baC^a_{a+b}Ca+ba​
有利场合:Ca+b−1a−1C^{a-1}_{a+b-1}Ca+b−1a−1​
故:
P=Ca+b−1a−1Ca+ba=aa+bP = {C^{a-1}_{a+b-1} \over C^a_{a+b}} = {a \over a+b}P=Ca+ba​Ca+b−1a−1​​=a+ba​
PS:这个例子就是抽签模型

例2:
设有n个球,每个都可以以同样的概率1n1\over nn1​落到N个格子的每一个格子中(N>=n),求:
(1)某指定的n个格子中各有一个球的概率P(A);
(2)任何n个格子中各有一个球的概率P(B);
解:
样本空间:NnN^nNn
P(A)=n!NnP(A) = {n! \over N^n}P(A)=Nnn!​
P(A)=CNn&ThickSpace;⋅&ThickSpace;n!Nn=N!Nn&ThickSpace;⋅&ThickSpace;(N−n)!P(A) = {C^n_N \; · \; n! \over N^n} = {N! \over N^n \; · \; (N-n)! }P(A)=NnCNn​⋅n!​=Nn⋅(N−n)!N!​
PS:这个模型可用于计算具有相同生日的人的概率


1.4 条件概率

(1)条件概率:
设有两个事件A和B,P(A)≠0P(A)\neq0P(A)̸​=0,在已知A发生的条件下B发生的概率记为:P(B∣A)=P(AB)P(A)P(B|A) = {P(AB) \over P(A)}P(B∣A)=P(A)P(AB)​;满足概率的三个基本性质。
乘法公式:P(AB)=P(A)P(B∣A)P(AB) = P(A)P(B|A)P(AB)=P(A)P(B∣A)
(2)全概率公式:
设B1,...,Bi,...,BnB1, ... ,Bi, ... , BnB1,...,Bi,...,Bn是Ω\OmegaΩ的一个划分(完备事件组),B1⋃B2⋃...⋃Bn=Ω,Bi⋂Bj=∅,i≠j,P(Bi)&gt;0B_1 \bigcup B_2 \bigcup ... \bigcup B_n = \Omega, B_i \bigcap B_j = \emptyset, i \neq j, P(B_i) &gt; 0B1​⋃B2​⋃...⋃Bn​=Ω,Bi​⋂Bj​=∅,i̸​=j,P(Bi​)>0, 其中 i=1, 2, 3, …,得到:
全概率公式:P(A)=P(AΩ)=P(A⋂(B1⋃B2⋃...⋃Bn))=P(AB1⋃AB2...⋃ABn)=∑i=1nP(ABi)=∑i=1nP(Bi)P(A∣Bi)P(A) = P(A\Omega) = P(A\bigcap(B_1 \bigcup B_2 \bigcup ... \bigcup B_n)) = P(AB_1 \bigcup AB_2... \bigcup AB_n) = \sum_{i=1}^n {P(AB_i)} = \sum_{i=1}^n P(B_i)P(A|B_i)P(A)=P(AΩ)=P(A⋂(B1​⋃B2​⋃...⋃Bn​))=P(AB1​⋃AB2​...⋃ABn​)=∑i=1n​P(ABi​)=∑i=1n​P(Bi​)P(A∣Bi​)
PS:把一个要求的事件(Ω\OmegaΩ)分解成若干个互不相容的事件(BiB_iBi​)。
(3)贝叶斯公式:
贝叶斯公式:P(Bi∣A)=P(BiA)P(A)=P(Bi)P(A∣Bi)(P(A∣B1)+...+P(A∣Bi)+...+P(A∣Bn))=P(Bi)P(A∣Bi)∑i=1nP(Bi)P(A∣Bi)P(B_i|A) = {P(B_iA)\over P(A)} = {P(B_i)P(A|B_i) \over (P(A|B_1) + ... + P(A|B_i) + ...+ P(A|B_n))} = {P(B_i)P(A|B_i) \over \sum_{i=1}^n P(B_i)P(A|B_i)}P(Bi​∣A)=P(A)P(Bi​A)​=(P(A∣B1​)+...+P(A∣Bi​)+...+P(A∣Bn​))P(Bi​)P(A∣Bi​)​=∑i=1n​P(Bi​)P(A∣Bi​)P(Bi​)P(A∣Bi​)​
其中:P(A)&gt;0,P(Bi)&gt;0P(A) &gt; 0, P(B_i) &gt; 0P(A)>0,P(Bi​)>0
PS:P(Bi)P(B_i)P(Bi​)是先验概率,在实际应用中是经验的总结、信息的归纳;
&ThickSpace;\;\quad P(Bi∣A)P(B_i|A)P(Bi​∣A)是后验概率,表示在事件(A)发生后对各种原因BiB_iBi​发生可能性的分析;

例:
用某检验法诊断肺癌,A:被检验者患有肺癌;B:检验诊断为阳性(患病);
已知:P(B∣A)=0.95,P(B‾∣A‾)=0.90,P(A)=0.0004P(B|A)=0.95,P(\overline{B}|\overline{A})=0.90,P(A) = 0.0004P(B∣A)=0.95,P(B∣A)=0.90,P(A)=0.0004
求:P(A|B)
解:
P(A∣B)=P(A)P(B∣A)P(A)P(B∣A)+P(A‾)P(B∣A‾)=0.0004×0.950.0004×0.95+0.9996×0.1=0.0038P(A|B) = {P(A)P(B|A) \over P(A)P(B|A) + P(\overline A)P(B|\overline A)} = {0.0004×0.95 \over 0.0004×0.95 + 0.9996×0.1} = 0.0038P(A∣B)=P(A)P(B∣A)+P(A)P(B∣A)P(A)P(B∣A)​=0.0004×0.95+0.9996×0.10.0004×0.95​=0.0038


1.5 独立性

独立性是概率论和数理统计中很重要的概念,很多情况需要满足独立性才适用,一般根据实践来确定事件之间是否相互独立。
定义:设A、B是随机试验E的两个事件,若 P(AB) = P(A)P(B), 则称AB事件相互独立,即A和B两个事件的发生互不影响。
定理1:若P(A) > 0 ,且 P(B|A) = P(B) 等价于 AB相互独立
定理2:若A、B相互独立,则其对立事件也相互独立
可以很自然的推广到n个事件的情况

例:
甲、乙两种产品独立生产,甲产品的次品率0.05,乙产品的次品率0.04,现从甲乙产品中各区一件:
(1)两件都是次品的概率P1;
(2)至少有一件是次品的概率P2;
(3)恰好有一件是次品的概率P3。
解:
设A事件为抽取甲为次品,B事件为抽取乙为次品
由于A、B相互独立,故:A,A‾\overline{A}A;A‾\overline{A}A,B;A‾\overline{A}A,B‾\overline{B}B;相互独立
(1)P1=P(AB)=P(A)⋅P(B)=0.05×0.04=0.002P1=P(AB)=P(A)·P(B)=0.05×0.04=0.002P1=P(AB)=P(A)⋅P(B)=0.05×0.04=0.002
(2)P2=P(A⋃B)=1−P(A⋃B‾)=1−P(A‾B‾)=1−P(A‾)P(B‾)=1−0.95×0.96=0.088P2=P(A \bigcup B)=1-P(\overline{A\bigcup B})=1-P(\overline{A}\overline{B})=1-P(\overline{A})P(\overline{B})=1-0.95×0.96=0.088P2=P(A⋃B)=1−P(A⋃B​)=1−P(AB)=1−P(A)P(B)=1−0.95×0.96=0.088
(3)P3=P(AB‾⋃A‾B)=P(AB‾)+P(A‾B)=P(A)P(B‾)+P(A‾)P(B)=0.86P3=P(A\overline{B}\bigcup \overline{A}B)=P(A\overline{B})+P(\overline{A}B)=P(A)P( \overline{B})+P(\overline{A})P(B)=0.86P3=P(AB⋃AB)=P(AB)+P(AB)=P(A)P(B)+P(A)P(B)=0.86
PS:独立性和互不相容性
(1)加法公式对应互不相容性;
(2)乘法公式对应独立性;


1.6 蒙特霍尔三门问题

游戏规则:

  • 参赛者会看见三扇关闭的门,其中一扇的后面有一辆汽车,选中后面有车的那扇门就可以赢得该汽车,另两扇门后则各藏有一只山羊。
  • 当参赛者选定了一扇门,但未去开启它的时候,知道门后情形的节目主持人会开启剩下两扇门的其中一扇,露出其中一只山羊。
  • 主持人其后会问参赛者要不要换另一扇仍然关上的门。

概率求解(python实现):

import randomdef MontyHall(Dselect, Dchange):Dcar = random.randint(1,3)if Dselect == Dcar and Dchange == 0:return 1elif Dselect == Dcar and Dchange == 1:return 0elif Dselect != Dcar and Dchange == 0:return 0else:return 1# 不确定是否改变选择
def test1(N):win = 0for i in range(N):Dselect = random.randint(1,3)Dchange = random.randint(0,1)win = win + MontyHall(Dselect, Dchange)print(float(win)/float(N))# 确定不改变选择
def test2(N):win = 0for i in range(N):Dselect = random.randint(1,3)Dchange = 0win = win + MontyHall(Dselect, Dchange)print(float(win)/float(N))# 确定改变选择
def test3(N):win = 0for i in range(N):Dselect = random.randint(1,3)Dchange = 1win = win + MontyHall(Dselect, Dchange)print(float(win)/float(N))N = 10000
print("不确定是否改变选择概率:")
test1(N)
print("确定不改变选择概率:")
test2(N)
print("确定改变选择概率:")
test3(N)

运行结果:

不确定是否改变选择概率:
0.4939
确定不改变选择概率:
0.3307
确定改变选择概率:
0.6618

1.7 蒙特卡罗方法
  • 蒙特卡罗方法,或称计算机随机模拟方法,是一种基于“随机数”的计算方法。
  • 使用随机数(通常是伪随机数)来解决计算问题的方法。
  • 蒙特卡罗方法在金融工程学,宏观经济学,计算物理学等领域应用广泛。
# 计算$\pi$的蒙特卡洛方法
import randomn=1000000
k=0
for i in range(n):x=random. uniform(-1,1)y=random. uniform(-1,1)if x**2+y**2<1:k=k+1
print(4* float(k)/float(n))

运行结果:

3.142032

概率论基础知识(一)概率论基本概念相关推荐

  1. 机器学习基础知识之概率论的随机变量及其分布

    ❤️机器学习基础知识❤️之概率论的❤️随机变量及其分布❤️ 文章目录 ❤️机器学习基础知识❤️之概率论的❤️随机变量及其分布❤️ 一.随机变量以及其分布 1.连续变量 2.离散变量 3.概率密度 二. ...

  2. 概率论基础知识(三) 参数估计

    概率论基础知识(三) 参数估计 1.矩 矩是用来描述随机变量的某些特征的数字,即求平均值,用大写字母E表示. 矩是更具有一般意义的数字特征. 设有随机变量X,若 E ( ∣ X ∣ k ) < ...

  3. 概率论基础知识(二) 随机变量及其分布

    概率论基础知识(二) 随机变量及其分布 1.随机变量 定义:设随机试验的样本空间为S={e}, X=X(e)是定义在样本空间S上的实值单值函数.称X=X(e)为随机变量. 这样一来,样本空间可以很好的 ...

  4. 机器学习基础知识之概率论的Matlab描述概率的图像(一)

    机器学习基础知识之概率论的Matlab描述概率的图像(一) (由于有很多的分布,而且还有一维分布以及多维分布,因此,我们一篇博文写下来的话内容量太大,文章太长,因此,我们分三次写完所有的基本的一维以及 ...

  5. 机器学习中用到的概率知识_学习机器学习前,你首先要掌握这些概率论基础知识...

    编者按:本文来自微信公众号"将门创投"(ID:thejiangmen),编译:Tom R,36氪经授权转发. 机器学习中有很多十分重要的核心基础概念,掌握这些概念对我们进行机器学习 ...

  6. 数学基础(1)~ 概率论基础知识

    概率论基础 出处:http://www.cnblogs.com/fanling999/p/6702297.html 参考:盛骤, 谢式千, 潘承毅. 概率论与数理统计, 第四版[M]. 高等教育出版社 ...

  7. WLAN基础知识--认识WLAN基本概念

    WLAN基础知识–认识WLAN 一 无线网络分类 1.根据范围进行分类 根据范围进行划分 范围 5m - 10m <100m >100m >1km 网络名称 PAN WLAN MAN ...

  8. 现代信号处理笔记 1 概率论基础知识(Review of Probability)

    文章目录​ 一.什么是事件.概率.统计? 二.一些前提 1.Bertrand Paradox(悖论) 2.随机变量(Random Variables) 3.分布​ 4.一些性质 三.典型分布 1.伯努 ...

  9. 模式识别学习笔记(1)概率论基础知识

    大学的时候,我的<概率论和数理统计>这门课一共挂过3次,而且我记得最后一次考过的时候刚刚及格,只有60分.你可以想象我的<概率论>这门课学的是有多差了.后来,我工作以后,在学习 ...

  10. 概率论基础知识各种分布

    离散分布:伯努力分布,二项分布,possion分布 一,伯努力分布 #执硬币 x_arr=np.array([0,1]) #x为1的概率 p=0.7 #0 1分布 #由PMF生成对应的概率 离散事件 ...

最新文章

  1. ONNX MLIR应用示例(含源码链接)
  2. 设置/修改centos上的swap交换分区的方法
  3. 'utf-8' codec can't decode byte 0xb6 in position 34: invalid start byte
  4. Leetcode69场双周赛-第二题5961.链表最大孪生和
  5. Linux之Debian下安装LAMP apt-get安装方式
  6. 聊聊程序员的成长与价值提升
  7. nginx解析php失败,为什么nginx不能解析php?
  8. Token注解防止表单的重复提交
  9. java 多重注解_Java注解-元数据、注解分类、内置注解和自定义注解
  10. oracle 表约束非空,oracle--约束(主键、非空、检查)
  11. php 伪静态 获取当前页面路径_织梦移动适配PHP获取当前页面URL地址方法
  12. 《C语言程序设计基础I》秋季学习总结
  13. PHP超级全局变量、魔术变量和魔术函数
  14. rk3399pro添加ALC5640音频配置
  15. 计算机组成原理A原是什么,计算机组成原理(A).doc
  16. 人脸检测——mAP的含义
  17. Java游戏聊斋聂小倩_求手机游戏聊斋聂小倩的攻略。华娱那版。
  18. 光纤之父高锟获英女王封爵
  19. 功能:输入一个正整数,按照从小到大的顺序输出它的所有质因子(重复的也要列举)(如180的质因子为2 2 3 3 5 )
  20. ESXi服务器勒索补丁升级方法

热门文章

  1. javascript常用编辑器推荐
  2. 正点原子Linux开发板实现WiFi开机自动连接
  3. C语言 Mkl 矩阵乘法,MKL库矩阵乘法
  4. PLC与RobotStudio联合仿真调试——项目一
  5. c语言usb串口通信程序,C语言在RS232串行接口通信中的实现
  6. 万能遥控器小制作(五)
  7. 在旭日X3派开发板上使用USB Wifi来提高网络速度
  8. k8s之常用操作命令
  9. 计算机系统更新从哪关闭,电脑总提示系统更新,怎么关闭?
  10. SpringBoot项目:抽奖精灵