概率论与数理统计

知 识 梳 理

(第一版)

建议先修课程:高等数学(微积分)
配套课程:
1、慕课(MOOC):概率论与数理统计(电子科技大学)
2、教材:概率论与数理统计 电子科技大学应用数学学院 徐全智、吕恕 主编 高等教育出版社
参考书目:
1、概率论与数理统计 第四版 浙江大学 盛骤、谢式千、潘承毅 编 高等教育出版社
2、概率论与数理统计 韩旭里 谢永钦 复旦大学出版社
3、概率论与数理统计 陈希孺 中国科学技术大学出版社
最后修订:2020-07-16。

目 录

修订内容 1
一 概率论的基本概念 2
二 随机变量的分布 4
三 多维随机变量 8
四 随机变量的数字特征 14
五 大数定律和中心极限定理 18
六 数理统计的基本概念 21
七 参数估计 27
八 假设检验 32

修订内容
第一版:
修订日期:2020-07-16


链接:https://pan.baidu.com/s/1mskZS2zmBUxZaIUll_dt5g
提取码:x5ms


一 概率论的基本概念
1、我们把生活中研究的各种现象分为两类:一类是确定性的,它们的结果可以在事前准确预测;一类是非确定性的(随机现象),具有事前不可预言性:在相同条件下重复实验,未必取得相同结果,或者根据过去的状态,无法预测将来的情况。

2、随机现象也是有规律可循的。在该现象大量发生时,其固有规律将逐渐清晰起来。这种固有规律称为统计规律性。概率论与数理统计是研究随机现象的统计规律性的一门学科。

3、随机试验的特点:
(1)可重复性。在相同条件下,可以重复进行。
(2)结果可知性。可以确定有哪些结果是可能发生的。如果我们不清楚随机试验到底可能发生哪些结果,研究很快就会无法进行下去。
(3)不可预言性。试验之前不能保证准确预测出任意一次实验的结果。

4、进行随机试验时,随机事件的范围不是随意划定的,而是要根据试验的目的来确定。不在研究范围内的,不视为(要研究的)随机事件。例如:某节课上要随机点人回答问题,“点到同学S”(S是本班的任意一个同学)为一个随机事件,而不将“计算机故障,无法启动随机点名程序”记为随机事件。

5、随机试验中,一定发生的和一定不发生的,分别称为必然事件和不可能事件,分别记为S(或Ω)和∅。

6、基本事件,是指一次实验中至少发生一个的最简单(不可再分)的一组事件。由若干基本事件组合而成的事件,称为复合事件。

7、每个基本事件都可以用包含一个元素的单点集ωi(i∈Z)来表示。所有单点集的并集称为样本空间Ω。样本空间的每一个元素称为样本点。复合事件对应样本空间的子集,必然事件和不可能事件分别对应样本空间Ω和空集∅。事件A发生,当且仅当A的一个样本点出现。

8、如果事件A发生意味着事件B肯定发生,则称事件B包含事件A,或者A是B的子事件,记作。对任意事件A,均有。如果A、B互相包含,则称事件A、B相同,记为A = B。

9、A和B的和事件记为A∪B,代表A或B至少发生一个。有限个或无限个事件的和事件分别可记作、。

10、A和B的积事件记为A∩B或AB,代表A和B同时发生。有限个或无限个事件的积事件分别可记作、。

11、若AB = ∅,称A、B为互不相容或互斥事件,即任何一次实验中A、B不可能同时发生。同一试验的基本事件之间都是互斥事件。一个事件组A1、A2、……、An中任意两个互不相容,称此事件组互不相容。

12、在AB = ∅的条件下,如果A∪B = Ω,称A、B互为对立事件,也称逆事件。

13、事件A发生且B不发生,称为A与B的差事件,记作A – B,也记作。

14、事件A的逆事件记为,等价表述为:A不发生。

15、事件本身可以看成集合,随机事件的运算定律与相应的集合的运算定律一一对应。

16、频率的定义:。
nA是A事件发生的次数(频数),n是试验次数。fn(A)是A在n次试验中发生的频率。频率的取值范围是[0, 1],必然事件和不可能事件的频率分别为1和0。一组不相容事件的频率为这一组事件中每个事件的频率之和。在一定条件下(一般都是试验次数很多时),频率才趋于稳定,这个稳定值称为概率。概率是刻画随机事件发生的可能性大小的数量指标。

17、概率的公理化定义:设随机试验的样本空间为S。对n个事件{An},如果P(A)满足:
非负性 P(A)≥0
规范性 P(S) = 1
可列可加性
则称P(A)为事件A的概率,亦称概率测度。
概率的公理化定义是科学的公理化结构:
(1)无矛盾。该结构的所有条件均不互相矛盾。
(2)完备性。概率的其它性质均可由结构中已有的条件推出。
该定义具有数学的基本特征——高度的抽象性和严密的逻辑性。该定义的提出,标志着概率论与数理统计成为了建立在严格逻辑推理之上的数学学科。

18、如果,则有
P(A – B) = P(A) – P(B)
证明略。

19、概率的加法公式是:
P(A∪B) = P(A) + P(B) – P(AB)
可以画韦恩图来理解:减去的项P(AB)在进行运算P(A) + P(B)的时候被多加了一次,正好是韦恩图中两个事件的重叠部分。
根据容斥原理可以将该公式推广到多个事件的概率的加法公式。
容斥原理 设有穷集S,n个性质分别为P1,P2,……,Pn。S中的元素具有或不具有性质Pi。
若Ai表示S中具有性质Pi的元素构成的子集,则同时不具有全部性质P1,P2,……,Pn的元素数为

S中至少具有某种性质的元素数为

用数学归纳法可以完成证明。

20、古典概型满足:(1)基本事件仅有有限个。(2)每个基本事件发生的可能性相等。由古典概型确定的事件发生的概率,称为古典概率。

21、设样本空间Ω可以用欧几里得空间的子集S表示,且S及其全体子集A均可用几何测度(长度、面积、体积等)μ度量,称度量值之比为几何概率。对应的模型称为几何概型。几何概型要求样本点在样本空间中均匀分布。

22、已知事件B发生的条件下,事件A发生的可能性的客观度量称为条件概率,记作P(A|B)。计算公式:
其中P(B) > 0
本质上说,利用该公式计算条件概率,是把限定条件当成了整个样本空间来进行无条件下的计算。

23、一般有。

24、由条件概率的计算公式可以直接得到概率乘法公式

使用此公式求解两个事件A、B同时发生的概率时,必须已知:其中一个事件发生的概率,以及在该事件已经发生的条件下,发生另一个事件的概率。
利用数学归纳法或直接利用这两条公式,易将概率乘法公式推广到n个事件的情形:

25、设Ω为随机试验的样本空间,,一组两两不相交且并集为Ω的事件B1、B2、……、Bn。则这组事件为Ω的一个有限划分。用概率的可加性和概率乘法公式,容易推出全概率公式

使用此公式求解一个事件A发生的概率时,必须已知:A与一系列互斥事件Bi,i = 1,2,……,n同时发生的概率,且这一系列事件Bi是完备的():其它事件必定能使用这一系列事件Bi来表示。
说白了就是:用n次概率乘法公式,把事件A与互斥的这些条件中的每一个条件同时发生的概率一同求出来,再相加。

画出韦恩图。已知在各个互斥且完备的条件下A发生的概率,可以看出全概率公式的两端分别对应:图中A区域的总面积,和A在一系列事件Bi对应的区域中占有的面积之和(总面积为1,对应概率最大为100 %)。

26、设Ω为随机试验的样本空间,,Ω的一个有限划分B1、B2、……、Bn,且P(Bi) > 0,i = 1,2,……,n。则有贝叶斯公式

刻画在事件A已发生的条件下,某个原因Bj导致事件A发生的概率。该公式可由概率乘法公式和全概率公式直接推导得到。贝叶斯公式右端的分子和分母分别对应:上图中某事件Bj对应的区域中属于A的面积,和A区域的总面积。

27、设试验E的两个事件A、B,如果满足
P(A|B) = P(A)或P(B|A) = P(B)或P(AB) = P(A)P(B)
则称事件A与B相互独立。∅、Ω与任意事件相互独立。另外,要区分事件的相互独立与互不相容(AB = ∅,或P(A∪B) = P(A) + P(B))。互不相容不涉及概率的计算,而事件的独立性是用概率本身定义的。由概率的加法公式
P(A∪B) = P(A) + P(B) – P(AB)
可以看出,如果事件A、B既相互独立又互不相容,则说明A、B其中之一概率为0。但概率为0的事件不一定是空事件∅。换言之,如果事件A或B发生的概率都不为0,那么独立和互斥有这样一层关系:互斥不独立,独立不互斥(相容不独立,独立不相容)。
由事件独立的定义中的P(A|B) = P(A)或P(B|A) = P(B)可以看出:两个事件A、B独立,则意味着一个事件是否发生对另一个事件的发生概率没有影响。

28、若A、B相互独立,则也相互独立。推广到n个事件的情形:
设试验E有n个事件A1、A2、……、An。
若对任意的s(2≤s≤n)以及1≤i1 < i2 < …… < is≤n,都有

则称事件A1、A2、……、An相互独立。
若对一切1≤i1 < i2≤n,都有

则称事件A1、A2、……、An两两独立。可见,n个事件相互独立作为结论要强于两两独立。n个事件相互独立,意味着其中任意k个事件是否发生,对剩下的(n – k)个事件中任意个事件同时发生的概率都没有影响;而n个事件两两独立,仅意味着其中一个事件是否发生,对剩下的每一个事件发生的概率没有影响。

29、随机事件A与B相互独立,C是B的子集。但A和C不一定相互独立。

二 随机变量的分布
1、设试验E的样本空间为Ω。对每个样本点ω∈Ω,总有唯一实数X(ω)对应,且对于任意实数x,事件{ω | X(ω)≤x}都有确定的概率,则称X(ω)为随机变量(random variable),简记为X。
随机变量X可以理解为从样本空间Ω到实数集R的一个映射。
随机变量在不同的条件下由于偶然因素影响,其可能取各种随机变量不同的值,具有不确定性和随机性,但这些取值落在某个范围的概率是一定的,所以此种变量称为随机变量。简单说成:
随机变量,是在任意指定的一个实数范围内能取到实数值的概率都可以确定的变量。
引进随机变量将随机试验数量化,是对随机现象进行量化分析的重要手段,优越性体现在:
(1)将样本空间变量化、数值化(从样本空间到实数集的映射);
(2)可以借助现代数学工具更好地描述、处理、解决随机问题。

2、设X是样本空间Ω上的随机变量,x是任意实数,称函数
F(x) = P{X≤x} = P{ω | X(ω)≤x}
为随机变量X的分布函数,有时也写作FX(x)。
对分布函数F(x)的理解:
(1)表示事件“随机点X落在(–∞,x]”的概率。
(2)增量ΔF(x) = F(x + Δx) – F(x) = P{x < X≤x + Δx}是事件“随机点X落在(x,x + Δx]”的概率。
(3)F(x)点点有定义,即F(x)的定义域是整个实数轴 (–∞,+∞)。
(4)根据概率的定义,分布函数属于概率。
总之,随机变量的分布函数表示的正是随机变量在限定范围内取值的概率。

3、分布函数的性质:
(1)单调不减:若x1 < x2,则F(x1)≤F(x2)。
(2)有界:0≤F(x)≤1,且,。
(3)右连续:。
注:P{X = x} = F(x) – F(x – 0)。
如果某个函数满足上述三条性质,那么它是某个随机变量的分布函数。可借助这些性质用于:确定一个函数是否为分布函数,或求解分布函数。
有的教材将分布函数定义为F(x) = P{X < x},并令其左连续。但本指导及配套课程统一采用右连续。这种记法使得在使用分布函数求诸如(–∞,x]这种左开右闭区间的概率时,取极限符号不需出现。

4、分布函数的计算方法(定义法计算):
因为,由概率的可列可加性:

5、如果随机变量X可以取的值的个数是有限个(可数无穷个),则称其为离散型随机变量。否则称为连续型随机变量。本课程中,只讨论这两种随机变量。
离散型随机变量的所有可能的取值一般写成更方便的分布律的形式。分布律可以用表达式直接描述,也可以列成表格。例如:pn = P{X = xn},n = 1,2,3,……

分布律必须满足:
(1)pn≥0;(2)∑pn = 1。
分布律和分布函数可以互相确定。离散型随机变量的分布函数是阶梯状的。

6、服从两点分布(伯努利分布)的随机变量只能取2个值。0-1分布等价于两点分布。服从0-1分布的随机变量称为简单随机变量。

7、仅关注试验E的每一个结果是否发生的试验称为伯努利试验(Bernoulli experiment)。

8、将试验E在相同条件且每次试验的结果互不影响的前提下重复n次,称为n次重复独立试验。当E是伯努利试验时,称这n次独立试验为n重伯努利试验,对应的概率模型又称伯努利概型。

9、在n重伯努利试验中,设某事件A发生的概率为p,0 < p < 1,则事件A发生的总次数X的分布律为:

称随机变量X服从二项分布(binomial distribution),记为X ~ B(n, p)。
上式由组合数的意义、概率乘法公式和概率的可加性可直接证明,这里略去。
当(n + 1)p不为整数时,在

处取得的概率最大;否则,在
k = (n + 1)p与k = (n + 1)p – 1
处取得的概率最大。
证明:记

当分子 > 分母,即k < (n + 1)p时,总有P(X = k) > P(X = k – 1)。
如果(n + 1)p不是整数,那么在处取得的概率最大。
如果(n + 1)p是整数,可以直接验证P(X = (n + 1)p) = P(X = (n + 1)p – 1)。

10、对于二项分布(λ是常数),其分布律为

当n→+∞时,将上式展开,得:

对最右侧的第一项,可以将分母写成k个n相乘,第i个n对应上面分子的第i项,i = 1,2,……,k。
由极限的四则运算法则和常用极限

得第一项为1。第二项与n无关,直接保留。对第三项,由常用极限

得第三项为e-λ。因此

该分布称为:参数为λ的泊松分布(Poisson distribution),记为Xn ~ P(λ)。
泊松分布是二项分布的极限分布,二项分布是泊松分布在离散情形下的特殊情况。
对二项分布(λ是常数),因为其两个参数相乘为λ,所以也可以说成:
对二项分布

如果

那么

可以写成,即pn和是同阶无穷小。也可以说:当n很大、p很小时,

即此时二项分布近似于泊松分布,且参数λ = np。
大量(对应n很大)独立重复试验中的稀有事件(对应p很小)出现的次数,或者说单位时间内小概率的随机事件发生的次数,近似服从泊松分布。例如:某地区一年中大暴雨的次数、计算机反复执行一段算法的出错率、DNA序列的变异数等。

11、对于连续型随机变量,用分布函数和分布律来描述其取值的分布情况都不够直观。
设有频率分布直方图,纵轴为频率 / 组距,横轴为随机变量的全体取值。某一组的频率是该组的纵坐标与组距的积,即该组对应的小矩形的面积。当组距越小(分组越多),甚至组距趋于零的时候,频率分布直方图就变成了一个由坐标轴和一个非负函数的图线f(x)围成的图形。由定积分的几何意义、牛顿—莱布尼兹公式及分布函数的定义,我们有:

即随机变量的取值落在区间(a, b]的概率是f(x)在(a, b]的定积分。
由积分上限函数(变上限积分)的性质,分布函数F(x)满足

由分布函数的性质F(–∞) = 0,可得c = 0。
设随机变量X的分布函数为F(x),若存在非负函数f(x)使得对任意实数x均有

则称X是连续型随机变量。这是连续型随机变量的形式化定义。
称f(x)为X的概率密度函数,简称概率密度。也就是说,概率密度函数与分布函数的关系是:对同一个随机变量,其分布函数的导数是概率密度函数,概率密度函数的常数为0的原函数是分布函数。
概率密度函数的含义:概率密度函数f(x)的值是概率在实数x处的线密度。在概率密度高的地方,随机变量取到值的概率大。

12、连续性随机变量的分布函数是处处连续的,且几乎处处可导。概率密度函数在不可导点的取值其实可以随意选择,因为对一个点的积分为0,它不会影响积分计算出来的在区间取到值的概率。

13、连续型随机变量在每一点取值的可能性都是0。用夹逼定理可以证明:

14、连续型随机变量的概率密度函数的性质:
(1)非负性:f(x)≥0。
(2)规范性:。
它们是判断一个函数是否为概率密度函数的依据。
另外,是否包括区间端点不影响连续型随机变量在同一个区间取值的概率:

由概率密度函数与分布函数的关系及第13点“连续型随机变量在每一点取值的可能性都是0”可以直接证明,这里省去过程。

15、如果随机变量X的概率密度函数为

称随机变量X在(a, b)服从均匀分布(uniform distribution),记作X ~ U(a, b)。均匀分布的概率密度函数在一定的区间内是水平线段,其余位置取值为0。其分布函数则是一条三段的折线,仅在概率密度不为零的区间呈上升状,在其余位置水平。
对上式积分,不难得出其分布函数为

16、如果随机变量X的概率密度函数为

称随机变量X在(a, b)服从参数为λ的指数分布(exponential distribution),记为X ~ E(λ)。
对上式积分,不难得出其分布函数为

指数分布的重要性质:无记忆性,即
P(X > s + t | X > s} = P{X > t}
证明:

无记忆性的例子(“永远年轻分布”):
某些元件或者设备的寿命服从指数分布。如无线电元件的寿命、电力设备的寿命等。
如果某一元件的寿命X服从指数分布,那么无记忆性表明:己知元件己使用s小时,那么它至少还能使用t小时的概率等于从开始使用算起,至少使用t小时的概率。这就是说:元件对它的己使用时间没有记忆。
回忆泊松分布的实际意义:
大量(对应n很大)独立重复试验中的稀有事件(对应p很小)出现的次数,或者说单位时间内小概率的随机事件发生的次数,近似服从泊松分布。
而这些事件的发生时间间隔的取值近似服从指数分布。

17、正态分布(normal distribution),又称高斯分布(Gaussian distribution)。
如果随机变量X的概率密度函数为

则称X服从参数为μ,σ2的正态分布,记作X ~ N(μ, σ2)。当两个参数分别取0和1时,其概率密度函数直接写作

称为标准正态分布。
正态分布的概率密度函数是用专门的字母φ来表示的,可见其重要性。
正态分布的概率密度曲线是钟形的,且关于直线x = μ对称。两个参数决定了概率密度曲线的位置。位置参数μ的改变可以令曲线左右平移,而形状参数σ2变小或变大分别可以让曲线变得更陡峭或更平坦。
对服从标准正态分布的随机变量的取值,可以查表获得。对于服从一般正态分布的随机变量的取值,要先转换成标准正态分布再计算。
人的身高、考试成绩、测量误差、热噪声等均可视为服从正态分布。
标准正态分布的分布函数是:

设X ~ N(μ, σ2)是符合正态分布的随机变量。下面演示如何将概率表达式P{X≤x}转换成标准正态分布。
首先

综合上述过程,我们得到转换方法:

对标准正态分布的分布函数求值,可以用计算器计算概率密度积分或直接查表。

18、3σ原则(68–95–99.7 rule)的内容是:几乎所有的值都在平均值正负三个标准差的范围内,也就是在实验上可以将99.7%的机率视为“几乎一定”。

19、几何分布(geometric distribution):重复伯努利试验中,直到k次才第一次成功的概率。记为X ~ G§,其中p是单次伯努利试验的成功率。第k次才成功的概率
P(X = k) = (1 – p)k-1p
呈几何分布的随机变量X的期望是:;方差是:。

20、超几何分布(Hypergeometric distribution):由有限個物件中抽出n個物件,成功抽出指定種類的物件的个數(不歸還)。
例如在有N個樣本,其中K個是不及格的。超幾何分布描述了在該N個樣本中抽出n個,其中k個是不及格的機率:

所有在N個樣本中抽出n個的方法數目;表示在K個樣本中,抽出k個的方法數目,即组合数,又称二项式系数。剩下來的樣本都是及格的,而及格的樣本有N – K個,剩下的抽法便有種。
若n = 1,超几何分布还原为伯努利分布(两点分布)。
若随机变量X服从参数为n、K、N的超几何分布,则记为X ~ H(n,K,N)。

三 多维随机变量
1、回忆一维随机变量的定义与理解:
设试验E的样本空间为Ω。对每个样本点ω∈Ω,总有唯一实数X(ω)对应,且对于任意实数x,事件{ω | X(ω)≤x}都有确定的概率,则称X(ω)为随机变量,简记为X。
随机变量X可以理解为从样本空间Ω到实数集R的一个映射。
随机变量在不同的条件下由于偶然因素影响,其可能取各种随机变量不同的值,具有不确定性和随机性,但这些取值落在某个范围的概率是一定的,所以此种变量称为随机变量。简单说成:随机变量,是在任意指定的一个实数范围内能取到实数值的概率都可以确定的变量。
定义:在同一随机试验E中,称定义在同一样本空间Ω上的两个随机变量X、Y构成的有序数组(X, Y)为二维随机变量。
对每个样本点ω,有两个实数X(ω),Y(ω)与之对应且满足:
对任意实数x,事件{ω | X(ω)≤x}都有确定的概率;对任意实数y,事件{ω | Y(ω)≤y}都有确定的概率。二维随机变量的每一维在任意指定的一个实数范围内能够取到值的概率都可以确定。
同理,可以定义更一般的n维随机变量:在同一随机试验E中,定义在同一样本空间Ω上的n个随机变量X1、X2、……、Xn构成的有序数组(X1, X2, …, Xn)。

2、回忆一维分布函数的定义与理解:
设X是样本空间Ω上的随机变量,x是任意实数,称函数
F(x) = P{X≤x} = P{ω | X(ω)≤x}
为随机变量X的分布函数,有时也写作FX(x)。
对分布函数F(x)的理解:
(1)表示事件“随机点X落在(–∞,x]”的概率。
(2)增量ΔF(x) = F(x + Δx) – F(x) = P{x < X≤x + Δx}是事件“随机点X落在(x,x + Δx]”的概率。
(3)F(x)点点有定义,即F(x)的定义域是整个实数轴(–∞,+∞)。
(4)根据概率的定义,分布函数属于概率。
总之,随机变量的分布函数表示的正是随机变量在限定范围内取值的概率。
定义:对任意实数对(x, y)∈R2,记{X≤x,Y≤y} = {X≤x}∩{Y≤y},则称二元函数
F(x, y) = P{X≤x,Y≤y}
为(X, Y)的联合分布函数。一维随机变量X、Y的分布函数FX(x)、FY(y)称为X、Y的边缘分布函数。
对二维随机变量(X, Y)的分布函数F(x, y)的理解:
(1)表示事件“随机点X落在区域{(a, b) | a≤x,b≤y}”的概率。
(2)F(x, y)点点有定义,即F(x, y)的定义域是整个实数平面。
(3)根据概率的定义,二维分布函数属于概率。
通过解除对其中一个随机变量的限制,可以由联合分布函数F(x, y)确定边缘分布函数:

通过二维随机变量的联合分布函数计算概率的方法:

定义n维随机变量的联合分布函数:

x1,x2,……,xn为n个任意实数。
由n个变量的联合分布函数,可以确定其中任意k个分量的联合分布函数,称为k维边缘分布函数。例如:

只要将联合分布函数的未选择的分量全部改成+∞就可以了。

3、回忆一维分布函数的性质:
(1)单调不减:若x1 < x2,则F(x1) < F(x2)。
(2)有界:0≤F(x)≤1,且,。
(3)右连续:。
联合分布函数的性质:
(1)(偏)单调不减:若x1 < x2,则F(x1, y) < F(x2, y);若y1 < y2,则F(x, y1) < F(x, y2)。
(2)有界:0≤F(x, y)≤1。并且有:、、。
(3)右连续:F(x, y)分别关于x或y右连续。即。
(4)相容性:。
如果有二元函数F(x, y)满足上述4个性质,那么必定能找到一个二维随机变量(X, Y)以F(x, y)为分布函数。

4、考虑一维离散型随机变量的分布律:
如果随机变量X可以取的值的个数是有限个(可数无穷个),则称其为离散型随机变量。否则称为连续型随机变量。
离散型随机变量的所有可能的取值一般写成更方便的分布律的形式。分布律可以用表达式直接描述,也可以列成表格。例如:
pn = P{X = xn},n = 1,2,3,……

分布律必须满足:(1)pn≥0;(2)∑pn = 1。
分布律和分布函数可以互相确定。离散型随机变量的分布函数是阶梯状的。
定义:设二维随机变量(X, Y)可以取的值的个数是有限个(可数无穷个),则称其为二维离散型随机变量。该随机变量可以列写为:
(xi, yj),i = 1,2,……,m;j = 1,2,……,n
则在
(1)pij≥0,i = 1,2,……,m,j = 1,2,……,n
(2)
的条件下,记表达式
P{X = xi, Y = yj} = pij,i = 1,2,……,m,j = 1,2,……,n
为二维离散型随机变量(X, Y)的联合分布律。

5、回忆在已知一维离散型随机变量的分布律的条件下,得到其分布函数的方法(定义法直接求解):
因为,由概率的可列可加性

仿照此方法,可以通过二维离散型随机变量的分布律求得其联合分布函数:

且二维离散型随机变量的分量X的分布律为:

同理可求随机变量Y的分布律。
联合分布律也可以用表格来表示:

将每行、每列求和可以直接得到随机变量X、Y的分布律。

6、回忆一维随机变量的概率密度函数的定义:
设随机变量X的分布函数为F(x),若存在非负函数f(x)使得对任意实数x均有,则称X是连续型随机变量,f(x)为X的概率密度函数,简称概率密度。也就是说,概率密度函数与分布函数的关系:对同一个随机变量,其分布函数的导数是概率密度函数,概率密度函数的常数为0的原函数是分布函数。
回忆概率密度函数的含义:概率密度函数f(x)的值是概率在实数x处的线密度。在概率密度曲线高的地方,随机变量取到值的概率大。
定义:设二维随机变量(X, Y)的联合分布函数为F(x, y),若存在非负函数f(x, y)使得对任意实数对(x, y)均有

则称(X, Y)为连续型随机变量,f(x, y)为其联合概率密度。

7、回忆一维随机变量的概率密度的性质:
(1)非负性:f(x)≥0。
(2)规范性:。
二维联合概率密度的性质包括:
(1)非负性:f(x, y)≥0。
(2)规范性:。
性质1可以由联合概率密度函数与联合分布函数的性质(偏单调不减、有界、右连续、相容性)证明。
这两条性质可以作为判断一个二元函数是否是一个二维随机变量的联合概率密度的标准。

8、如果联合概率密度函数f(x, y)在(x, y)处连续,则有:。
可由积分上限函数的性质证明。
如果有一个区域D∈R2,则有:。
用随机变量表示的事件的概率的定义与二重积分的性质可以证明。

9、由二维离散型随机变量(X, Y)的联合分布律
P{X = xi, Y = yj} = pij,i = 1,2,……,m,j = 1,2,……,n
可以得到(X, Y)关于X、Y的边缘分布律分别为:

但是,仅由边缘分布律,不一定可以确定联合分布律。以下是一个反例:

10、设二维连续型随机变量(X, Y)的联合概率密度f(x, y),联合分布函数为

则X、Y都是连续型随机变量。回忆高等数学中学过的积分上限函数的性质(c是常数)

对边缘分布函数

求导,可以直接得到它们的边缘概率密度分别为:

由上可见,边缘概率密度也可以通过对联合概率密度进行积分得到。
但是,仅由边缘概率密度,不一定可以确定联合概率密度。

11、回忆事件独立性的定义:
设试验E的两个事件A、B,如果满足
P(A|B) = P(A)或P(B|A) = P(B)或P(AB) = P(A)P(B)
则称事件A与B相互独立。
设二维随机变量(X, Y),若对任意实数对(x, y)均有
P{X≤x,Y≤y} = P{X≤x}P{Y≤y}
则称X、Y相互独立。否则称它们是相依的。
意义:对任意实数对(x, y),随机事件对{X≤x}、{Y≤y}都相互独立。
两个随机变量X、Y相互独立的等价条件(重要!):
(1)对任意实数对(x, y)均有F(x, y) = FX(x)FY(y)。两个独立的随机变量的联合分布函数等于其边缘分布函数的乘积。
(2)对任意实数对(xi, yj)均有P{X = xi, Y = yj} = P{X = xi}P{Y = yj}。
(3)在分布函数的可导点对(1)中的等式两边求导,得f(x, y) = fX(x)fY(y)。即:两个独立的随机变量的联合概率密度等于其边缘概率密度的乘积。
不过,上式并不在整个平面上成立。因为分布函数虽然处处连续,但不一定处处可导。否定该条件需要找到面积不为零的一块区域使得上式不成立。
设n维随机变量(X1, X2, …, Xn)的联合分布函数为F(x1, x2, …, xn)。若对任意实数x1, x2, …, xn均有

称(X1, X2, …, Xn)相互独立。
特别地,任取i < j,如果

则n维随机变量(X1, X2, …, Xn)两两独立。但由n维随机变量两两独立并不能推出n维随机变量相互独立。
两两独立可以推广到任取s个变量(2≤s≤n)的情况:
如果对任意的s以及1≤i1 < i2 < … < is≤n,均有

则有等价条件

即随机事件组相互独立。
式(
)可以写成一系列事件的概率的积,所以随机变量的独立性,本质上是随机事件的独立性。

12、若n维随机变量(X1, X2, …, Xn)相互独立,则:
(1)其中任意个随机变量也相互独立。
(2)n维随机变量(X1, X2, …, Xn)两两独立。
(3)两个随机向量(X1, X2, …, Xm)和(Xm+1, Xm+2, …, Xn)也相互独立。
(4)函数随机向量(g1(X1), g2(X2), …, gn(Xn))也相互独立。

13、回忆条件概率的求法:
,P(B) > 0
设(X, Y)的联合分布律为P{X = xi, Y = yj} = pij,i = 1,2,……,m;j = 1,2,……,n。若P{Y = yj} > 0,则在事件{Y = yj}已经发生的条件下,事件{X = xi}发生的条件概率为

该式具有分布律的非负性和规范性,我们称它为在Y = yj的条件下,随机变量X的条件分布律。
类似地,若P{X = xi} > 0,也有随机变量Y的条件分布律

两式可以直接改写成

该式可以通过条件分布律计算联合分布律。

14、离散型随机变量的条件分布函数

表明在已知Y = yj的条件下X的条件分布函数。

15、连续型随机变量的条件分布函数

由于Y是连续型随机变量,所以P{Y = y} = 0。但分母不能为零,所以用取极限代替。如果> 0且对任意x∈R,其极限总存在,就称此极限函数为在Y = y的条件下,随机变量X的条件分布函数。

16、回忆概率密度的定义:
设随机变量X的分布函数为F(x),若存在非负函数f(x)使得对任意实数x均有,则称X是连续型随机变量,f(x)为X的概率密度函数,简称概率密度。
如果把条件分布函数FX|Y写成积分上限函数的形式:

称为Y = y的条件下,随机变量X的条件概率密度。也就是说,条件概率密度函数是关于x的一元函数,y并不是变量,而是常数。
同样地,也可以定义在X = x的条件下,随机变量Y的条件概率密度

求解条件概率密度时注意:只有在作为条件的随机变量的边缘概率密度函数值非零的区域,所求变量的条件概率密度函数才存在。

17、对第3个判断随机变量X、Y相互独立的充分必要条件:
f(x, y) = fX(x)fY(y)在平面上所有“面积”为0的点集外成立
我们可以类比事件A、B相互独立的等价条件
P(A|B) = P(A)或P(B|A) = P(B)或P(AB) = P(A)P(B)
并结合上面的讨论,补充新的随机变量X、Y相互独立的充分必要条件:
X与Y相互独立,等价于
或对所有(x, y)∈R2成立

在平面上所有“面积”为0的点集外成立
概率密度函数在测度为0的点的定义一般不会很严密,因此涉及概率密度函数的判定条件不需要在平面上点点成立。
由于的分母不一定不为0,因此一定要注意在使用条件概率密度之前先判断其存在性。

18、已知离散型随机变量X的分布律
P{X = xi} = pi,i = 1,2,…,n
设随机变量Y = G(X),则通过G(x)将每个x映射到y,就得到Y的分布律
P{Y = yj} = P{G(X) = yj} = P{X = xi}
当i≠j,xi≠xj时,可能有yi = yj。此时两个表达式要合并到一起,相应的概率要相加。
对二维离散型随机变量(X, Y)也是如此。若已知
P{X = xi, Y = yj} = pij,i = 1,2,……,m,j = 1,2,……,n
设随机变量Z = G(X, Y),则通过G(X, Y)将每个x、y映射到z,就得到Z的分布律
P{Z = zk} = P{G(X, Y) = zk} = P{X = xi, Y = yj}
当i1≠j1,i2≠j2,xi1≠xi2,yj1≠yj2时,可能有G(Xi1, Yj1) = G(Xi2, Yj2) = zk。此时同样需要合并函数值相同的取值点对应的概率。

19、一般地,n个随机变量X1, X2, …, Xn:
(1)相互独立;(2)具有相同类型的分布。
若随机变量Y = X1 + X2 + … + Xn除参数变化外,分布类型不变,则称该分布具有可加性。
二项分布、泊松分布和正态分布都具有可加性。但均匀分布不具备可加性。
特别地,若X1、X2、…、Xn相互独立,且Xi ~ B(1, p),i = 1,2,……,n,则X1 + X2 + … + Xn ~ B(n, p)。
反之,若X ~ B(n, p),则存在相互独立的Xi ~ B(1, p),i = 1,2,……,n,使得X = X1 + X2 + … + Xn。
也就是说,二项分布随机变量等价于多个独立0-1分布的随机变量之和。

20、设连续型随机变量X的概率密度fX(x),若Y = g(X)也是连续型随机变量,则Y的分布函数
FY(y) = P{Y≤y} = P{g(X)≤y} =
且Y的概率密度

求解的关键是:将Y的取值范围g(X)≤y转换为X的取值范围并求概率。该方法称为分布函数法。
求出来的分布函数常常是按y分段形式的。

21、如果,则称Y服从自由度为1的χ2(卡方)分布。

22、二维连续型随机变量(X, Y)的概率密度为f(x, y)。若函数Z = G(X, Y)仍为连续型随机变量,则

对FZ(z)求导即得Z的概率密度fZ(z)。

四 随机变量的数字特征
1、设离散型随机变量X的分布律为P{X = xi} = pi,i = 1,2,3,……,n。若,则X的数学期望(均值)为

设连续型随机变量X的概率密度为f(x)。若,则X的数学期望(均值)为

离散型随机变量的数学期望是一个级数,而连续型随机变量的数学期望是一个积分。数学期望的定义要求所求的级数收敛或积分可积。
回忆高等数学中提到的级数的常见性质:如果一个级数绝对收敛,则该级数收敛。该约束保证数学期望的唯一性。

2、常见分布的期望(熟记):
如果X ~ P(λ),则E(X) = λ。
证明:X ~ P(λ),则

于是

因为

所以
E(X) = λe-λeλ = λ
用定义法可以直接求得:
如果X ~ B(n, p),则E(X) = np;
如果X符合两点分布,则E(X) = p。

3、常见分布的期望(续)(熟记):
如果X ~ N(μ, σ2),则E(X) = μ。
证明:

设。则

第二项为奇函数,在对称区间上积分结果为零。把第一项的μ提到积分号外,积分式变为。对照标准正态分布的概率密度,直接写出该积分式的积分结果为1,E(X) = μ。
我们还可以证明下述几种常见分布的期望:
(1)如果X ~ U(a, b),则。
(2)如果X ~ E(λ)(),则。
(3)如果X ~ H(n, M, N),则。

4、设随机变量X、Y,且Y = g(X),g(X)是连续函数。
(1)若X是离散型随机变量,分布律为P{X = xi} = pi,i = 1,2,3,……,n。当时,则有

(2)若X是连续型随机变量,概率密度为fX(x)。当时,则有

该定理可以推广到二维的情形。

5、期望的性质:(a,b是常数)
(1)E(a) = a;
(2)E(aX) = aE(X)。
联立(1)(2)可得到
E(aX + b) = aE(X) + b
(3)。即:和的期望等于期望的和。
(4)如果X、Y相互独立,则E(XY) = E(X)E(Y)。(熟记!)
证明:设
P{X = xi} = pi,i = 1,2,3,……,m;P{Y = yj} = pj,j = 1,2,3,……,n;Z = XY
则Z的取值可以取
x1y1,x1y2,x1y3,……,x1yn,x2y1,x2y2,……,xmyn
所以

Z = XY的本质是二维随机变量Z = Z(X, Y)。上述结论可以推广到高维随机变量:
若X1, X2, …, Xn相互独立,则

但反过来是不成立的。
可见,期望的概念比概率要弱,在这里表现为:不满足“联合分布函数等于边缘分布函数的积”的一组变量可能满足“积的期望等于期望的积”。
随机变量的期望是级数或积分,它们都是满足线性性的,所以期望也满足线性性。此外,再次强调:期望的本质是一个数。所以,如果要求多个变量的线性组合的期望,可以根据期望的线性性化简表达式。例如:
E((X – E(X))(Y – E(Y))
= E(XY – XE(Y) – E(X)Y + E(X)E(Y))
= E(XY) – E(XE(Y)) – E(E(X)Y) + E(E(X)E(Y)) ①
= E(XY) – E(Y)E(X) – E(X)E(Y) + E(X)E(Y) = E(XY) – E(X)E(Y) ②
根据期望的定义,①式的本质是积分或级数的相加减。而①式中第2项的E(Y)和第3项的E(X)均为常数,可以根据期望的性质(1)提到括号外,最终得到②式。

6、要计算随机变量取值的波动性,如果直接取E(X – E(X)),可能会发生正负相互抵消的情况。然而,如果先取绝对值后计算(E(|X – E(X)|)),则期望比较难计算,所以用方差来刻画随机变量取值的波动性。
设X是随机变量,若D(X) = E((X – E(X))2)存在,则称D(X)为X的方差,为X的标准差或均方差。

7、不难看出,方差D(X)的本质也是期望。所以可以根据定义直接得出方差的计算公式:
(1)当X为离散型时,

(2)当X为连续型时

将这两式化简,可以得到
D(X) = E(X2) – E2(X)
可以仿照第6点中的示例证明,这里略去。

8、常见分布的方差(熟记):
(1)若X ~ P(λ),则E(X) = D(X) = λ。
证明:

因为

所以。而E(X) = λ,所以D(X) = E(X2) – E2(X) = λ。
类似地,也可以计算出下面几种常见分布的方差:
(2)若X ~ B(n, p),则D(X) = np(1 – p)。
(3)若X ~ N(μ, σ2),则D(X) = σ2。
(4)若X ~ U(a, b),则D(X) =。
(5)若X ~ E(λ),则D(X) =。

9、方差的性质与期望的性质对比:(设a,b是常数)
(1)E(a) = a,D(a) = 0。
(2)E(aX) = aE(X),D(aX) = a2D(X)。
方差刻画的是数据的波动性。由方差的定义式,不难得出
D(aX + b) = D(aX) = a2D(X)
(3),。
(4)若X1, X2, …, Xn相互独立,则,。
其中(1)(2)由定义法易证。下面我们来证明(3)的第二条式子:
方差的定义式是D(X) = E((X – E(X))2),所以

对(4)的第二条式子,我们在第7点中已经证明了E((X – E(X))(Y – E(Y)) = E(XY) – E(X)E(Y)。又已知当X、Y相互独立时,有E(XY) – E(X)E(Y) = 0。本例中,因为X1, X2, …, Xn相互独立,所以,所以。也就是说,只有当一组变量相互独立时,才满足“和的方差等于方差的和”。
注意:方差不具有线性性。

10、设随机变量X的期望和方差均存在且方差不为零。记X的标准化随机变量为

则E(X*) = 0,D(X*) = 1。
证明:
(1)

(2)

如果X ~ N(μ, σ2),则。

11、若随机变量X的方差D(X)存在,则有切比雪夫不等式(Chebyshev Inequation):

含义:方差使得X偏离均值的概率被限定在一个较小的范围,要求的范围越小则偏移概率越大。
证明:
这里只证明X为连续型随机变量的情形。
当X为连续型时,有

对右侧积分放缩,得

从这个证明过程可以看出:不等号右侧的估计值是粗略的。

12、设随机变量X、Y的方差D(X)、D(Y)均存在,则:
(1)

(2)同理可证

13、记随机变量(X, Y)的协方差
cov(X, Y) = E((X – E(X))(Y – E(Y)) = E(XY) – E(X)E(Y)
对比方差的定义式D(X) = E((X – E(X))2)可得:D(X) = cov(X, X)。
第14点的两条等式可以写成
D(X ± Y) = D(X) + D(Y) ± 2cov(X, Y)

14、协方差的性质(熟记!):
(1)对称性:cov(X, Y) = cov(Y, X)。
(2)齐性:cov(aX, bY) = ab·cov(X, Y),a、b是常数。
(3)可加性:cov(X1 + X2, Y) = cov(X1, Y) + cov(X2, Y)。
(4)若X、Y相互独立,则由方差的性质(4)得:cov(X, Y) = 0。即:相互独立的两个随机变量的协方差为零。

15、设二维随机变量(X, Y)的方差D(X) > 0,D(Y) > 0,则

为随机变量X与Y的相关系数。相关系数的量纲为1。
方差和标准差都是一个数。因此可以将分母的标准差放到协方差的定义的期望之中,得到:

而对任意一个随机变量X总有E(X*) = 0,所以
cov(X*, Y*) = E(XY) – E(X*)E(Y*) = E(XY) = ρX, Y
相关系数是衡量两个随机变量之间的线性相关程度的数字特征。

16、设n维随机变量(X1, X2, …, Xn)的协方差cij = cov(Xi, Xj)均存在,则(X1, X2, …, Xn)的协方差矩阵为:

17、协方差矩阵的性质:
(1)ci, i = D(Xi),i = 1,2,……,n。因为ci, i = cov(Xi, Xi) = D(Xi)。
(2)因为cov(X, Y) = cov(Y, X),所以ci, j = cj, i。即协方差矩阵是对称矩阵。
(3)C是非负定矩阵。
(4),i、j = 1,2,……,n。

18、设X为随机变量,若E(|X|k) < +∞,则称
γk = E(Xk),k = 1,2,3,……
为X的k阶原点矩,
αk = E(|X|k) ,k = 1,2,3,……
为X的k阶绝对原点矩。数学期望是一阶原点矩,即γ1 = E(X)。
设X为随机变量,若E(|X – E(X)|k) < +∞,则称
μk = E((X – E(X))k),k = 1,2,3,……
为X的k阶中心矩,
βk = E(|X – E(X)|k) ,k = 1,2,3,……
为X的k阶绝对中心矩。方差是二阶中心矩,即μ2 = D(X)。
由以上定义以及第6、第7点的
D(X) = E((X – E(X))2) = E(X2) – E2(X)
不难得出:

19、因为对任意随机变量X,总有μ1 = 0,所以

同理,

随机变量的矩也是一个数。

20、设随机变量X,Y的相关系数存在,则
(1)|ρ|≤1;
(2)|ρ| = 1等价于:X、Y依概率为1线性相关,即存在a、b(a≠0)使得P{Y = aX + b} = 1。
证明:
(1)因为
0≤D(X* ± Y*) = D(X*) + D(Y*) ± 2cov(X*, Y*) = 2 ± 2ρX, Y
所以|ρX, Y|≤1。
(2)先证必要性(左推右)。
当ρ = –1时,由(1)有
D(X* + Y*) = D(X*) + D(Y*) + 2cov(X*, Y*) = 2 + 2×–1 = 0
E(X* + Y*) = E(X*) + E(Y*) = 0 + 0 = 0。
因为D(X* + Y*) = 0,所以
P{X* + Y* = E(X* + Y*)} = 1
即P{X* + Y* = 0} = 1。
由,得

当ρ = 1时,同理可证。
再证充分性(右推左)。

21、当|ρ| = 1时,意味着点(X, Y)落在一条直线上。当ρ = 1或–1或0时,分别称为正相关或负相关或不相关。注意:这里的不相关仅指X、Y不具有线性关系,但X、Y可以有其它非线性关系。也就是说,即使X、Y的相关系数为0,X、Y也不一定独立。

22、若X、Y相互独立,则X、Y不相关。
证明:X、Y相互独立,则cov(X, Y) = 0。若相关系数存在,则相关系数。
注意:该定理的逆定理不成立。

五 大数定律和中心极限定理
1、仿照数列极限的定义,设随机变量数列{Xn}(其中的一些项允许是常数)。若对任意ε > 0均有

则称随机变量序列{Xn}依概率收敛于X(X既可以是随机变量也可以是常数)。也记作

可见,随机变量序列{Xn}依概率收敛于X,意味着当n足够大时,Xn与X出现较大偏差的概率很小,或者说有很大把握保证Xn与X的差在很小的范围内。
注意:数列收敛意味着当n足够大时,第n项与极限的值一定非常接近;但依概率收敛不保证当n足够大时,随机变量数列与其极限一定非常接近,也就是说此时Xn与X完全有可能仍然相差很大。

2、设随机变量数列{Xn}的期望都存在。若对于任意的ε > 0均有

则称随机变量数列{Xn}服从大数定律。可以看出,指的是随机变量数列{Xn}的前n项的算术平均。
大数定律表达了随机结果的稳定性。

3、切比雪夫大数定律 设Xk,k = 1,2,……是相互独立的一组随机变量,且期望与方差都存在。且存在常数C,使得D(Xk) < C(方差一致有界(具有共同的有限的界,在这里指具有共同有限上界)),则称随机变量数列{Xk}服从大数定律。
证明:因为

根据切比雪夫不等式

代入X = ,得:对任意ε > 0,均有

切比雪夫大数定律表明:如果用于描述一种随机试验的结果的一组随机变量相互独立,且期望与方差都存在,那么就可以通过将这个随机试验大量重复进行并取算术平均值来逼近正确结果。

4、独立同分布大数定律 设Xk,k = 1,2,……是相互独立的一组随机变量,且期望都为μ,方差都为σ2。则对任意ε > 0,均有

证明:该组随机变量满足切比雪夫大数定律。而,所以上式得证。
如果删除条件“方差都为σ2”,独立同分布大数定律就变成辛钦大数定律:样本的矩依概率收敛于总体的矩。
辛钦大数定律从理论上指出:用算术平均值来近似实际真值是合理的。或者说,样本均值会随着样本数量n的不断增大,依概率收敛到真正的总体平均值。这是一阶原点矩(期望)的情况,对其它矩也有类似结论。

5、伯努利大数定律 设m为n重伯努利试验中事件A出现的次数,p为A在每次试验中发生的概率,则对任意ε > 0,均有

证明:设一组随机变量{Xn},Xi ~ B(1, p),i = 1,2,……,n。则E(Xi) = p,D(Xi) = p(1 – p)。
该随机变量数列服从独立同分布大数定律,即

因为n重伯努利试验中事件A出现的次数为m,所以令,就有。
这个等式的实际意义与独立同分布大数定律、辛钦大数定律和切比雪夫大数定律异曲同工:它说明了实际工作中,可以以大量测量(测量次数n尽可能大)值的平均值(这里指发生的次数m与试验总次数n之比,即某事件发生的概率)作为精确值的估计值。这个式子以严格的数学形式表达了频率的稳定性:经过大量的测量后,用于作为事件的概率的频率会越来越接近其实际概率。

5、设随机变量数列{Xn},X也为随机变量。和F(X)分别为和X的分布函数。如果在F(X)的连续点X处均有

则称随机变量数列{Xn}依分布收敛于X,记作或 或 。
依概率收敛一定依分布收敛,但反之不成立。以下是一个反例:

6、独立同分布中心极限定理(Levy-Lindeberg中心极限定理) 设随机变量数列的每一项相互独立,且具有相同的分布。并且,。则服从中心极限定理,即

定理的含义是:的前n项和的标准化随机变量数列依分布收敛于标准正态分布随机变量。
要求同分布,保证了它们具有相同的期望和方差。由期望、方差的含义可知,的统计均值及其在均值附近的偏离程度都是一样的。也就是说,各项虽然取值随机,但由于它们同分布,因此它们每次取到的值都差不多,意即“均匀”。该定理告诉我们:多个相同分布的独立随机变量叠加起来的分布近似于正态分布。实际当中,测量误差等影响可看成近似满足“均匀”的条件,于是最终的测量结果往往接近正态分布。换言之,当n很大时,近似有:

这三条式子非常重要,务必熟记。
由于对该定理证明的要求超出本课程所学范围,故不予证明。
独立同分布中心极限定理告诉我们:当一组相互独立、分布相同的随机变量足够多时,可认为前n项和的标准化随机变量近似服从标准正态分布。
在随机数生成中,由于均匀分布较容易产生,所以可以通过产生若干个均匀分布并叠加来构造一个正态分布。

7、de Moivre – Laplace中心极限定理(棣莫孚 – 拉普拉斯中心极限定理) 设随机变量,则对任意实数X均有:

证明:设为相互独立的随机变量,则

该随机变量数列服从独立同分布中心极限定理。
设,则。从而

棣莫孚 – 拉普拉斯中心极限定理是独立同分布中心极限定理的一种特殊情形。该定理的意义是:当n足够大时,二项分布作标准化处理后可以近似视为标准正态分布。
对二项分布,当np较小时,用泊松分布近似计算更精确;当np较大时,用正态分布近似计算更精确。泊松分布的参数λ较大时,亦可用正态分布近似计算。

六 数理统计的基本概念
本章提到的常见分布的概率密度函数都不用记。

1、总体,指的是研究对象的全体;而个体,指的是组成总体的每个元素。
例如:考察某批次建筑物的抗震能力,这批建筑为总体,每一栋建筑为个体。
实际中,我们关心的往往是总体的一项或几项数量指标值。这种数量指标往往是具有一定分布规律的随机变量。例如在刚才的例子中,该批次建筑物的抗震能力为数量指标,记为随机变量X。
为了方便,我们把总体和刻画它的数量指标等同起来,将总体定义为随机变量。

2、为研究总体的性质,最好的办法一般是把每个个体都加以观测研究。但大多数时候这并不必要,有时甚至不可能。例如:测定一批炮弹的杀伤力时,不能将所有的炮弹都拿来试验。
一般来说,从总体中抽取部分个体(如:n个)进行观测,再根据这n个观测值去推断总体的性质。

3、样本是按照一定规则从总体中抽取的部分个体。选择样本的过程叫做抽样,样本中个体的数目称为样本容量。类似将总体定义为随机变量的做法,样本可以看成一组随机变量。

4、为使样本能够尽量反映总体的分布与特性,一般要求样本满足:
(1)代表性:与X都具有相同的分布。
(2)独立性:相互独立。独立的样本在处理起来要方便许多。
与总体同分布且相互独立的样本为简单随机样本,简称样本。
为使样本具有代表性,抽样必须满足随机性。
注意:如果抽取过程中不放回样本,由于不满足独立性(后续各样本被抽到的几率会随着已经抽取的样本数量的增加而增加),因此不放回抽取得到的样本不是简单随机样本。不过,当不放回抽取对独立性的影响很小时(个体数量远大于样本数量),也可近似认为抽取结果是简单随机样本。

5、样本在抽取前,相应的随机变量的值不确定,用大写表示;而抽样后,随机变量的值确定了,用小写表示。抽样也称为对样本进行一次具体的观测,确定下来的随机变量的值称为观测值。

6、已知总体X的分布函数F(x),为X的一个样本。则对样本这个n维随机变量,可以用样本的联合分布函数来代表总体的分布函数:

即:总体的分布决定了样本的分布。反之,样本分布中包含了总体分布的信息。

7、已知总体X的密度函数f(X),为X的一个样本。则对样本这个n维随机变量,可以用样本的联合概率密度来代表总体的概率密度:

若X是离散型随机变量,分布律为

则可以用样本的联合分布律来代表总体的分布律:

8、设总体X的一个样本。T为n元实值函数。若样本的函数

是随机变量,且不含未知参数,则称T为统计量。对相应的样本值,称

为统计量的统计值。

9、常见的统计量包括:
样本均值

样本方差

(分母为n – 1,后续会解释)
样本k阶原点矩

样本k阶中心矩

这两种矩统称样本矩。

10、关于样本矩的2个重要关系式:

即:一阶原点矩就是均值。

这里列出在第四章第18点提到过的的二阶中心矩和一阶、二阶原点矩的关系,方便对比:

用观测值代替样本时,相应的统计量的字母也要小写。
样本矩也是随机变量,但总体矩是数值。

11、若随机变量X的概率密度函数为

或写作

则称X服从自由度为n的χ2(卡方)分布,记为χ2 ~ χ2(n)。其概率密度函数图象如下:

其中,Gamma函数

是概率论中的一个十分常见的函数。其常用性质有:

12、χ2分布的分布结构定理 设相互独立且都服从标准正态分布,则

即:随机变量χ2服从自由度为n的卡方分布。自由度,是指参与构造的独立变量的个数。该定理告诉了我们χ2分布是如何构造出来的。
显然,若X ~ N(0, 1),则Y = X2服从χ2(1)分布。

13、对于给定的正数α,0 < α < 1,满足条件

的点就是χ2(n)分布的上侧分位数,也称上侧临界值。注意:χ2(n)是随机变量,但是一个数。
本课程不要求能够计算出上侧分位数。需要使用上侧分位数时,通过查表获取相应的数值。

14、χ2分布的三条性质:
(1)(数字特征)设χ2 ~ χ2(n),则有

证明:因为,相互独立且都服从标准正态分布,所以

(2)(可加性)设Y1、Y2相互独立,且,则

证明:记

且相互独立且都服从标准正态分布,所以。
(3)(大样本分位数)当n足够大时,有

其中是标准正态分布的上侧分位数,满足。
证明:因为,相互独立且都服从标准正态分布,所以也相互独立同分布。
根据独立同分布中心极限定理,近似成立,故

将左侧标准化,有

再根据标准正态分布上侧分位数的定义,有

15、若随机变量T的概率密度函数为

则称T服从自由度为n的t分布,记为T ~ t(n)。t分布也称学生t分布,因为研究者以Student作为笔名将其发表。

16、t分布结构定理 设随机变量X、Y相互独立,X ~ N(0, 1),Y ~ χ2(n),则

即:随机变量T服从自由度为n的t分布。
这里不予证明。

17、t分布的性质:
(1)t分布的概率密度函数为偶函数。
(2)对任意实数x,均有

即当n足够大时,t分布近似变为标准正态分布。
对性质(2),由χ2分布的结构定理我们知道,Y同分布于n个独立的标准正态分布的平方和。n→+∞时,根据大数定律,。于是T收敛于服从标准正态分布的随机变量X。

18、对于给定的正数α,0 < α < 1,满足条件

的数称为t(n)分布的上侧分位数。

19、的性质:
(1)t分布的概率密度曲线关于y轴对称。即

(2)因为n足够大时,t分布近似变为标准正态分布,此时也有

20、如果随机变量F的概率密度满足

则称F服从第一自由度为,第二自由度为的F分布,记为。

21、F分布结构定理 设随机变量X、Y相互独立,,则

证明略。

22、对于给定的正数α,0 < α < 1,满足条件

的数称为F分布的上侧分位数。

23、F分布的两个推论:
(1)
由F分布的结构定理易得。
(2)
证明:由F分布的上侧分位数的定义,有

于是

又根据推论(1),有

24、单个正态总体的抽样分布定理(尤其熟记(2)(3)(4)!)。
设正态分布有一个样本,其均值和方差分别是,则:
(1)与相互独立。
(2)。(或者:)
(3)。
(4)
首先,(1)和(3)的证明超出本课程的范围。下面证明(2)和(4):
(2)由于是正态分布样本的线性组合,因此其服从正态分布。而

因此

(4)由(2)和(3),而分别记,。
由(1),U和V是相互独立的。根据t分布结构定理

25、两个正态总体的抽样分布定理。
设正态总体X与Y相互独立,总体,样本,样本的均值和方差分别为 和;总体,样本,样本的均值和方差分别为 和。则有:
(1)
证明:根据第24点的(3)

故而根据F分布的结构定理,有

(2)如果,有

其中

证明:
服从正态分布,也许可以化为χ2分布。二者组合的统计量T应该服从t分布。下面就这个方向尝试证明:
因为,所以

由χ2分布的可加性

因为两个样本的均值和方差共计4个变量都相互独立,故U、V也相互独立。从而

七 参数估计
1、参数,是刻画总体某方面特性的数量。当其未知时,可以从总体抽取一组样本,并用某种方法对这个未知参数进行估计,这就是参数估计。
例如:有两个参数。如果它们未知,通过构造一个关于样本的函数,给出它们的估计值(点估计)或取值范围(区间估计),就是参数估计的主要任务。

2、点估计的一种常用方法是矩估计。意即用样本的k阶矩近似作为总体k阶矩。例如:期望E(X)可以用样本均值(1阶原点矩)估计。

3、对于矩估计法,虽然用法简单(只用到矩),但是如果总体矩不存在,则无法求出待求的参数。例如柯西分布(Cauchy Distribution)的所有矩都不存在,当符合柯西分布的随机变量具有未知参数时,就无法使用矩估计法求解。另外,由于没有用到分布,矩估计法并未充分利用总体能提供的信息。此外,由于矩估计基于大数定律,所以在大样本下矩估计才有较好的效果。

4、点估计的一般做法是:
设总体X的分布函数为

其中,未知参数为。对每个参数,根据n个样本构造一个关于n个样本的统计量 作为对参数的估计。这个构造的统计量称为估计量。将样本的一组具体的值代入,就得到一个具体数值,称为的估计值。通常在不致混淆的情况下,对估计量和估计值不做严格区分,统称为估计,并简记为。

5、若总体X的概率密度函数为(θ可能为向量),总体X的样本,根据需要求解的概率,可以构造n维随机变量的联合概率密度函数

称为参数θ的似然函数。
对于离散型样本,似然函数为其联合分布律。极大似然估计法,是指根据样本求参数θ的估计值,使得似然函数达到最大值。可见,极大似然估计法的基本思想就是按照最大可能性的准则进行推断:把已经发生的事件看成最可能出现的事件,即认为它具有最大的概率。
由于构造似然函数时用到了大量的连乘,所以可以先对等式两侧取自然对数再求解。求解的具体方法一般是求一阶导的零点来获得一个极大值或最大值。

6、如果存在使得似然函数最大,就称为θ的极大似然估计值。相应的估计量称为θ的极大似然估计量。注意:矩估计法与极大似然估计法得到的结果不一定相同。用矩估计法较为方便,但是样本容量较大时,极大似然估计法精确度更高。

7、评价一个估计量的好坏的常用标准有三种:
(1)无偏性。(2)有效性。(3)相合性。

8、设是未知参数θ的估计量。若,则称为θ的无偏估计量,简称无偏估计。
注意:虽然由取得的样本得到的参数估计值并不一定是真实值,但意味着这种估计方法得到的估计值理论上应该等于真实值(只是实际上因为各种微弱的干扰而常常与真实值有所偏离)。在科学研究中,也称所用的估计方法和估计值没有系统误差。

9、设总体X的k阶原点矩存在,X的样本。则X不论服从什么分布,样本的k阶原点矩都是的无偏估计量。
证明:

证毕。
注:根据第四章第5点(3),和的期望等于期望的和,所以有。

10、下面我们来证明:
(1)X的样本的二阶中心矩不是D(X)的无偏估计量。
(2)X的样本方差是D(X)的无偏估计量。
证明:
(1)首先

其次,设①式:

根据上一章的知识,我们有:

代入①式化简,得

证毕。
(2)由上一条等式中的,我们有

这就是我们将二阶样本中心矩的分母修正为n – 1的理由。

11、如果一个参数的估计值是无偏估计,意味着这个估计的随机误差在理论上刚好正负抵消;但是,这并不意味着无偏估计的随机误差就一定很小。对于两个无偏估计量,我们认为方差更小的那个更有效。
设和是未知参数θ的两个无偏估计量。若对θ的所有可能取值都有,则称比有效。
设是θ的无偏估计。如果对θ的任意一个无偏估计量 都有,则称是θ的最小方差无偏估计量。

12、设是未知参数θ的估计量。若均有

则称是θ的相合估计量。即。
符合相合性的估计量,随着样本数量n的增大,估计量的值也会越来越趋向于被估计参数的真实值。由于相合性是在极限意义下定义的,因此只有当样本容量充分大时,符合相合性的估计量才会显示出优越性。但很多时候往往难以增大样本容量,而且证明相合性并不容易。因此,在实际生活中常常使用无偏性和有效性这两个标准。

13、点估计的缺陷主要有:
(1)无从断定估计值是否为待估参数的真实值,即使估计量是无偏、有效的估计量。
(2)不能把握估计值与参数真实值的偏离程度和估计的可靠程度。
为了弥补点估计的不足,我们引入区间估计:
设总体的未知参数为θ,由样本确定两个统计量

对于给定的正数α,0 < α < 1,满足条件

则称随机区间为θ的置信度为的置信区间。又称为置信水平或置信概率。α称为显著性水平,通常取值为0.1,0.05。
置信区间的意义可作如下直观解释:如果进行N次简单随机抽样,则得到N个具体的区间,有的包含未知参数θ的真值,有的不包含。当上式成立时,这些区间中,包含θ的真值的约占100() %。一般在应用上,α取值为0.05、0.1的居多,当然也可以取 0.10、0.005、0.001等等,主要视情况需要而定。这些数字本身并无特殊意义,主要是标准化后对构造分布临界值表或分布函数数值表方便。

14、对置信区间的表达式

θ是固定(虽然值未知)的参数而不是随机变量,所以不能说参数θ落在随机区间的概率是。将表达式转换为自然语言,正确的说法有:
(1)随机区间以的概率包含待估参数θ。此概率越大,区间估计的可靠程度越高。
(2)随机区间的长度是随机变量,反映了区间估计的精确程度。
提高精度与可靠度是矛盾的。著名统计学家奈曼提出处理原则:先确定能接受的可靠程度。在此前提下,尽量提高精确度。

15、下面我们来举例求解一个正态总体参数的置信区间(重要)。
设总体,样本,样本均值和样本方差分别是 。
【1】总体均值μ的置信区间。
(1)σ2已知。
寻找置信区间的一种常用方法是:
找出一个关于待估计参数θ的良好的估计量(统计量)——尽量寻找无偏、有效、相合的估计量。构造一个包含参数θ及其估计量的函数。W不包含其它未知数(除了待估计的θ),并且W的概率分布类型可以确定(W通常具有经典分布,比如正态分布),则称这样的函数W为枢轴变量。
当需要估计正态总体的μ值时,使用样本均值构造枢轴变量

可以看出,它包含的未知数仅为待估参数μ,且服从标准正态分布。现在要求μ的置信区间,我们可以借助标准正态分布的上侧分位数直接写出

再将标准化的变量U还原回去,就得到μ的置信区间

从本例可以看出,要求给出一个区间[a, b],且μ落在该区间的概率为。而μ有的概率落在区间[a, b],对应枢轴变量U有同样的的概率落在区间[a’, b’]。通过查表,容易直接获得[a’, b’],再将其转换为[a, b]即可得到结果。这就是枢轴变量法的核心思想(重要!)。
(2)σ2未知。
此时,刚才构造的U包含两个未知参数μ和σ,因此不能再选用U作为枢轴变量。但是我们可以选用第六章第24点的(4):

作为枢轴变量。t分布也关于y轴对称,所以也可以借助上侧分位数直接写出

进行恒等变换,易得置信区间

【2】总体方差σ2的置信区间。
(1)μ已知。
选取自由度为n的χ2分布的随机变量枢轴变量:

虽然χ2分布的图象是非对称的,但是为了方便,我们依然左右各选取:

由图直接写出

整理,得到置信区间

(2)μ未知。
可以根据第六章第24点的(3):

直接写出

化简,得置信区间

16、两个正态总体区间的估计。
设总体,样本,样本的均值和方差分别为 和;总体,样本,样本的均值和方差分别为 和。两个样本相互独立。
【1】两个正态总体均值差的置信区间。
(1)已知。
依已知,我们有:

取枢轴变量

即得置信度为的置信区间

(2)未知,但。

由第六章第25点的(2),有

以T为枢轴变量,求得置信度为的置信区间

【2】两个正态总体方差之比为的区间。
比较两个正态总体的方差的大小,通常可以化为此问题。
(1)已知。
根据F分布结构定理

用样本构造一个符合F分布的枢轴变量F:

相应的置信区间如下:

(2)未知。
根据第六章第25点(1):

用样本构造一个符合F分布的枢轴变量F。从F分布表中查到上界和下界:

结果:

17、在有些实际问题中,我们常常关心的是未知参数至少有多大(例如设备、元件的使用寿命等),或者是未知参数至多是多少(例如产品的不合格率、杂质含量等),这就引出了只有一个有限端点的单侧置信区间概念。
单侧置信区间的估计与双侧情形完全类似,只需将置信区间的一个端点换成+∞或-∞,而将另一个端点中的换成相应的即可。因此,前面所有求置信区间的方法,都可以很容易套用于此。

八 假设检验
1、假设检验中,根据实际问题的需要,应提出两个对立的假设,分别称为原假设(零假设)和对立假设(备择假设),原假设一般记为H0,对立假设可记为H1。两个假设通常用表达式描述,例如:

形如前两行的假设对应的检验称为参数假设检验,否则称为非参数假设检验。参数假设检验又可分为参数的单侧假设检验和双侧假设检验。

2、假设检验中,依据“小概率事件一般不发生”(认定小概率事件不发生)的基本原理来确定相应的界限。例如:对于两个假设

指定一个小概率α。在本例中,根据具体问题的需要,再确定一个常数k,使得

将 的观测值代入上式,如果,则说明小概率事件在本次试验中发生了。这与“小概率事件不发生”矛盾,所以我们有理由怀疑原假设H0错误,于是拒绝H0;而如果,则我们没有充分的理由怀疑原假设H0错误,于是接受H0。
本例中,若原假设H0成立,则记检验统计量

并令

小概率就可转换为。故对,有

如果设,查表得,计算出,即小概率事件发生了,拒绝原假设H0。
我们可以看到,在本例中,“H0的发生率为”被转换为“U落在概率为的区间”。将样本的信息代入U,可以判断小概率事件是否有发生,于是我们能够凭此决定拒绝还是接受原假设H0。这种处理方法与思想和参数估计中的枢轴变量法类似。(重要!)

3、使原假设H0可以被接受的检验统计量的取值范围称为检验的接受域;使原假设H0被拒绝的检验统计量的取值范围称为检验的拒绝域。一般情况下,对于参数的假设检验,首先找出参数的一个良好估计,并以这个估计为基础构造检验统计量。在上例中,为参数μ选用的估计值是,并以此构造了检验统计量U。对检验统计量的要求是:当原假设H0成立时能完全确定检验统计量的概率分布。其次确定检验统计量取值于什么区域对H0成立有利,取值于什么区域又对H1成立有利,从而确定检验的拒绝域或接受域。具体来说,划定接受域和拒绝域的方法是:考察需要检验的表达式中的变量减小或增大时,检验统计量是减小还是增大,什么时候减小或增大到超过由指定的或划定的取值范围,从而确定接受域和拒绝域。

4、一般意义的反证法要求在原假设下导出的结论是绝对成立的。如果导出矛盾的结论,就真正推翻了原来的假设。而概率的反证法导出的结论即使矛盾也是与“小概率事件不发生”这一推断原理矛盾。但小概率事件在一次实验中并不是绝对不能发生的,只是发生概率很小而已。所以,由小概率事件原理验证的假设检验就可能出现错误。

5、假设检验可能犯的第一类错误是“弃真”错误:本来是正确的,却被拒绝了。如果我们在作检验时,认为概率值小于事先给定的的事件为小概率事件,则犯第一类错误的概率为

这个事先给定的值α称为假设检验的显著性水平。
假设检验可能犯的第二类错误是“纳伪”错误:实际上不正确,却被接受了。显然,犯第一类错误的概率α越小,拒绝域越小,从而拒绝H0的可能性也越小,犯第二类错误的概率便越大。犯第二位错误的概率我们记为

注意:不一定有。
我们希望犯两类错误的概率都尽可能地小,但它们是互相矛盾的,就好像区间估计中可靠度与精确度相互矛盾一样。假设检验的通常做法是,先保证犯第一类错误的概率α有较小的值,常取为0.05、0.01,有时也用到0.001等值。在这个前提下,使犯第二类错误的概率尽可能小。
在实际应用中,若要同时减少犯两类错误的概率,则必须增加样本容量,而这意味着工作量的加大和经济上的更多损失。
本章介绍的正态分布总体参数的假设检验方法,经证明,都是一定条件下β最小的显著性检验,称为最优检验。

6、常见的假设形式有:

(1)为双侧检验,(2)(3)为单侧检验。
也可以将形如(2)(3)的检验化为

这是因为(2)与(2)*、(3)与(3)*分别都具有相同的拒绝域。

7、单个正态总体的均值与方差的假设检验(重要!)。
设总体,样本。
【1】单个正态总体均值μ的检验。
检验假设:

(1)σ2已知。
如果原假设成立,那么记

不难写出其拒绝域为

这里用到的检验统计量是服从标准正态分布的检验统计量,此方法也称单样本u检验法。
(2)σ2未知。
可以用样本标准差S代替总体的未知参数σ,并根据第六章第24点的(4),记

不难写出其拒绝域为

此方法称为单样本t检验法。
【2】单个正态总体方差σ2的检验。
检验假设:

(1)μ已知。
如果原假设成立,则构造检验统计量

不难写出其拒绝域为

此方法称为检验法。
(2)μ未知。
如果原假设成立,则根据第六章第24点的(3),构造检验统计量

不难写出其拒绝域为

8、两个正态总体的均值与方差的假设检验。
设总体,样本,样本的均值和方差分别为 和;总体,样本,样本的均值和方差分别为 和。两个样本相互独立。
【1】两个正态总体均值差的检验。
检验假设

(1)已知。
依已知,我们有:

在原假设成立时,构造检验统计量

不难写出其拒绝域为

此方法称为双样本u检验法。
(2)未知,但。
当两个正态总体的方差未知时,我们不能再使用u检验法检验。

由第六章第25点的(2),在原假设成立时,构造检验统计量

其拒绝域为:

此方法称为双样本t检验法。
【2】两个正态总体方差之比为的检验。
检验假设

(1)已知。
原假设成立时,构造检验统计量

拒绝域为

(2)未知。
由第六章第25点的(1),原假设成立时,构造检验统计量

拒绝域为

F检验法就是两个正态总体的方差进行对比时的检验方法。

【2020/07/16修订】概率论与数理统计(电子科技大学) 知识梳理 · 第一版(1到8章 · 度盘)相关推荐

  1. 概率论与数理统计在计算机知识的应用,概率论与数理统计在生活及教学中的应用...

    1. 引言 概率论与数理统计是很有意思的学科,是数学的一个分支.在日常生活中我们会遇到股票投资,如何投资,如何使经济利益最大,保险行业,不等式:保险行业中如何实现风险规避,实现收益等等一系列问题等等一 ...

  2. 概率论与数理统计学习总结(浙大第四版 第一章)

    第一章    概率论的基本概念 1. 随机试验 2. 样本空间.随机事件 3. 频率与概率 4. 等可能概型(古典概型) 5. 条件概率 6. 独立性 7. 小结 1. 随机试验 随机试验:可以在相同 ...

  3. 概率论与数理统计Chapter1——先导知识1

    先导知识 计数原理 分类加法计数原理 分步乘法计数原理 排列组合 排列问题 组合问题 排列与组合的关系 解决计数问题的相关方法 特殊元素优先安排 捆绑法 插空法 正难则反策略 定序问题&相同元 ...

  4. 应用数值分析(冯象初)2020年8月西安电子科技大学出版-课后参考答案-第1章

  5. 西安电子科技大学硕士论文latex模板第1章修改为第一章

    就是章号从阿拉伯数字修改成中文数字. 在XDUthesis.cls中查找chapter,并照下图所示,将name={\arabic{chapter}}修改为name={\chinese{chapter ...

  6. 徐小湛概率论与数理统计课件_概率论与数理统计-徐小湛-视频教程70讲

    第01讲 随机试验 样本空间 随机事件.mp4 第02讲 随机事件的关系与运算.mp4 第03讲 频率与概率.mp4 第04讲 概率的性质.mp4 第05讲 加法原理与乘法原理 排列与组合.mp4 第 ...

  7. 2020.07 学习日记

    废话 寒假到现在,在家里玩了5个月,来学校又玩了大半个月.以为会做点东西了就什么都懂了,竟然没做准备就投了字节秋招提前批.结果被挂了之后,又被捞起来面试.可以说十分幸运了,但机会都是留给有准备的人 2 ...

  8. 计算机专业双一流排名大专,2020电子科技大学专业排名(王牌专业+双一流学科)...

    2019电子科技大学专业排名(王牌专业+双一流学科)2020年高考填报志愿时,电子科技大学专业排名和电子科技大学有哪些王牌专业是广大考生和家长朋友们十分关心的问题,以下是本网为大家整理的电子科技大学王 ...

  9. 西安电子科技大学计算机专硕调剂,西安电子科技大学人工智能学院2020研究生调剂通知...

    西安电子科技大学人工智能学院2020研究生调剂通知 新消息!西安电子科技大学人工智能学院2020研究生调剂通知来了,考研招生调剂服务系统已开通几日了,现在还能摸到黄金调剂时间的尾巴,大家抓紧时间!现在 ...

最新文章

  1. [转]制作BlogWriter 博客客户端
  2. ANDROID 开发常用的框架、工具、API最全集合
  3. PHP error:ERROR: No pool defined. at least one pool section must be specified in config file
  4. Swift5.x使用纯代码创建NavigationTab控制器设置启动图Wb第1部分
  5. 异常作弊– Java 8 Lambdas
  6. BZOJ-1177 [Apio2009]Oil
  7. python dll注入监听_DLL注入和API拦截
  8. windows10无法访问共享计算机,win10共享无法访问,windows无法访问共享文件
  9. RGB-D SLAM in Dynamic Environments Using Static Point Weighting论文笔记
  10. 计算机学校排名高中,普通高中排名
  11. 【Android Gradle 插件】 Splits 配置 ① ( BaseExtension#splits 配置 | Splits 配置简介 )
  12. Android美化之全局透明背景
  13. Tekton系列之实践篇-如何用Jenkins来管理Tekton
  14. 最新手机号段归属地数据库 2019年6月版 430826条记录
  15. 题目 1878: 蓝桥杯2017年第八届真题-青蛙跳杯子
  16. 日历查询系统c语言1,C语言 日历查询系统 成品
  17. Java黑皮书课后题第4章:*4.24(对三个城市排序)编写一个程序,提示用户输入三个城市名称,然后以升序进行显示
  18. Python实现课堂随机提问并语音播报学生姓名!辅导员开心极了!
  19. 金融信用风控建模完整指南
  20. 加快云网融合发展,打通算力传输大动脉

热门文章

  1. html怎么设置一条边框线,css怎么设置边框?
  2. 从“追星”到“饭圈”:人类偶像崇拜发展简史
  3. 根据身份证地址拆分省市区
  4. Highcharts Stock内置的技术指标
  5. python读网页数据绘图
  6. XML和JSON 已经常用的解析工具
  7. 预警html效果,预警电子邮件 HTML 模板的语法
  8. Kubernetes权威指南
  9. 删除DB2实例下的数据库
  10. CSR8670蓝牙模块,立体声高品质音频方案