总结自《概率论与数理统计应用》第二版 西安交大出版社
下面是书中一些涉及到期望和方差的内容

第三章:随机变量的数字特征

随机变量的数字特征是一些由它的概率分布所决定的常数,这些常数能够反映随机变量某些方面的重要特征,故称之为随机变量的数字特征。

一、数学期望

1.1 随机变量的数学期望:

1.1.1 离散型随机变量x

x的分布律为:
P{x=xi}=pi,i=1,2,...P\{x=x_{i}\} = p_{i}\ ,\ i=1,2,...P{x=xi​}=pi​ , i=1,2,...
若级数∑1≤i≤∞xipi\sum_{1\le i\le \infty}x_{i}\,p_{i}∑1≤i≤∞​xi​pi​绝对收敛,则称它的数学期望可以表示为:
E(x)=∑1≤i≤∞xipiE(x)=\sum_{1\le i\le \infty}x_{i}\,p_{i}E(x)=∑1≤i≤∞​xi​pi​
绝对收敛的意思:我的理解为,它的概率分布是稳定且不会变化的,我们的采样方式是不变的,采样概率是x的客观属性,当试验次数很大时,频率≈\approx≈概率。

1.1.2 连续型随机变量x

设连续型随机变量x的概率密度为f(x)f(x)f(x),若积分∫−∞∞xf(x)dx\int_{-\infty}^{\infty}xf(x)dx∫−∞∞​xf(x)dx绝对收敛,则称∫−∞∞xf(x)dx\int_{-\infty}^{\infty}xf(x)dx∫−∞∞​xf(x)dx为随机变量x的数学期望,记为E(x)E(x)E(x),即
E(x)=∫−∞∞xf(x)dxE(x)=\int_{-\infty}^{\infty}xf(x)dxE(x)=∫−∞∞​xf(x)dx

1.2 随机变量的函数的数学期望

g(x)g(x)g(x)为随机变量x的函数
E[g(X)]={∑1≤i≤∞g(xi)pi,当x是离散型∫−∞∞g(x)fx(x)dx,当x是连续型E[g(X)]=\begin{cases} \sum_{1\le i\le \infty}g(x_{i})p_{i}, &\text{当x是离散型} \\ \int_{-\infty}^{\infty}g(x)f_{x}(x)dx, &\text{当x是连续型} \end{cases}E[g(X)]={∑1≤i≤∞​g(xi​)pi​,∫−∞∞​g(x)fx​(x)dx,​当x是离散型当x是连续型​

1.3 数学期望的性质

(1)E(C)=C,E(C)=C,E(C)=C,
(2)E(CX)=CE(X),E(CX)=CE(X),E(CX)=CE(X),
(3)E(X+Y)=E(X)+E(Y),E(X+Y)=E(X)+E(Y),E(X+Y)=E(X)+E(Y),
(4)若XXX与YYY相互独立,则E(XY)=E(X)E(Y)E(XY)=E(X)E(Y)E(XY)=E(X)E(Y)
证明:
(3)E(X+Y)=∫−∞∞∫−∞∞(x+y)f(x,y)dxdyE(X+Y)=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}(x+y)f(x,y)dxdyE(X+Y)=∫−∞∞​∫−∞∞​(x+y)f(x,y)dxdy
=∫−∞∞xdx∫−∞∞f(x,y)dy+∫−∞∞ydy∫−∞∞f(x,y)dx=\int_{-\infty}^{\infty}xdx\int_{-\infty}^{\infty}f(x,y)dy+\int_{-\infty}^{\infty}ydy\int_{-\infty}^{\infty}f(x,y)dx=∫−∞∞​xdx∫−∞∞​f(x,y)dy+∫−∞∞​ydy∫−∞∞​f(x,y)dx
根据边缘定理可知,上式等于
=∫−∞∞xf(x)dx+∫−∞∞yf(y)dy=\int_{-\infty}^{\infty}xf(x)dx+\int_{-\infty}^{\infty}yf(y)dy=∫−∞∞​xf(x)dx+∫−∞∞​yf(y)dy
=E(X)+E(Y)=E(X)+E(Y)=E(X)+E(Y)
(4)E(XY)=∫−∞∞∫−∞∞xyf(x,y)dxdyE(XY)=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}xyf(x,y)dxdyE(XY)=∫−∞∞​∫−∞∞​xyf(x,y)dxdy
根据相互独立定理可知,f(x,y)=f(x)f(y)f(x,y)=f(x)f(y)f(x,y)=f(x)f(y),上式等于
=∫−∞∞xf(x)dx∫−∞∞yf(y)dy=\int_{-\infty}^{\infty}xf(x)dx\int_{-\infty}^{\infty}yf(y)dy=∫−∞∞​xf(x)dx∫−∞∞​yf(y)dy
=E(x)E(y)=E(x)E(y)=E(x)E(y)

二、方差

2.1 方差和标准差

我们用E{[X−E(X)]2}E\{[X-E(X)]^{2}\}E{[X−E(X)]2}来度量XXX对其期望E(X)E(X)E(X)的分散程度。这个量就叫做XXX的方差(‘平均平方偏差’)。

方差和标准差的定义:

设XXX为随机变量,若E{[X−E(X)]2}E\{[X-E(X)]^{2}\}E{[X−E(X)]2}存在,则
D(X)=E{[X−E(X)]2}D(X)=E\{[X-E(X)]^{2}\}D(X)=E{[X−E(X)]2}
称为随机变量XXX的方差,而称D(X)\sqrt{D(X)}D(X)​为XXX的标准差,记为σ(X)\sigma(X)σ(X),即:
σ(X)=D(X)\sigma(X)=\sqrt{D(X)}σ(X)=D(X)​
根据数学期望的性质,令μ=E(X)\mu=E(X)μ=E(X),则:
E[(X−E(X))2]=E[X2−2XE(X)+E(X)2]=E[X2]−2μE(X)+μ2=E[X2]−μ2E[(X-E(X))^{2}]=E[X^{2}-2XE(X)+E(X)^{2}]=E[X^{2}]-2\mu\,E(X)+\mu^{2}=E[X^{2}]-\mu^{2}E[(X−E(X))2]=E[X2−2XE(X)+E(X)2]=E[X2]−2μE(X)+μ2=E[X2]−μ2
即:
D(X)=E(X2)−(E[X])2D(X)=E(X^2)-(E[X])^2D(X)=E(X2)−(E[X])2

2.2 方差的性质

(1) D(C)=0D(C)=0D(C)=0
(2) D(CX)=C2D(X)D(CX)=C^{2}D(X)D(CX)=C2D(X)
(3) 若XXX与YYY相互独立,则D(X±Y)=D(X)+D(Y)D(X\pm\,Y)=D(X)+D(Y)D(X±Y)=D(X)+D(Y)
(4) D(X)=0D(X)=0D(X)=0的充要条件是P{X=E(X)}=1P\{X=E(X)\}=1P{X=E(X)}=1
性质三的证明:
E[((X−Y)−E(X−Y))2]E[((X-Y)-E(X-Y))^{2}]E[((X−Y)−E(X−Y))2]
=E[X2+Y2−2XY+E[X]2+E[Y]2−2E(X)E(Y)−2XE(X)+2XE(Y)+2YE(Y)−2YE(Y)]=E[X^{2}+Y^2-2XY+E[X]^2+E[Y]^2-2E(X)E(Y)-2XE(X)+2XE(Y)+2YE(Y)-2YE(Y)]=E[X2+Y2−2XY+E[X]2+E[Y]2−2E(X)E(Y)−2XE(X)+2XE(Y)+2YE(Y)−2YE(Y)]
=E[X2+E(X)2−2XE(X)+Y2+E(Y)2−2YE[Y]−2XY−2E[X]E[Y]+2YE[X]+2XE[Y]]=E[X^2+E(X)^2-2XE(X)+Y^2+E(Y)^2-2YE[Y]-2XY-2E[X]E[Y]+2YE[X]+2XE[Y]]=E[X2+E(X)2−2XE(X)+Y2+E(Y)2−2YE[Y]−2XY−2E[X]E[Y]+2YE[X]+2XE[Y]]
注意:E(X)E(X)E(X)和E(Y)E(Y)E(Y)是固有属性,可以看作是常数,XXX和YYY相互独立,所以E(XY)=E(X)E(Y)E(XY)=E(X)E(Y)E(XY)=E(X)E(Y),而XXX和XXX不独立,所以E(X2)≠E(X)2E(X^2)\ne E(X)^2E(X2)​=E(X)2
所以:
E[−2XY−2E[X]E[Y]+2YE[X]+2XE[Y]]=0E[-2XY-2E[X]E[Y]+2YE[X]+2XE[Y]]=0E[−2XY−2E[X]E[Y]+2YE[X]+2XE[Y]]=0
所以:
D(X±Y)=D(X)+D(Y)D(X\pm\,Y)=D(X)+D(Y)D(X±Y)=D(X)+D(Y)

第五章 数理统计学的基本概念

前面介绍的是数学基础,从这里开始是统计学的基本内容,我这里会摘录一些统计学的基本概念,便于期望和方差在实际生活中使用统计学计算的理解。

一 总体与样本

1.1 总体及其分布

在实际应用中,把研究对象的全体元素组成的集合叫做总体或母体。总体中每个元素称为个体。
从数学角度说,总体是指数量指标可能取的各种不同数值的全体,而各种不同数值在客观上有一定的比率。我们把数量指标取不同数值的比率叫做总体分布。即客观上总体存在一个概率分布函数:
F(x)=P{X⩽x}F(x)=P\{X\leqslant x\}F(x)=P{X⩽x}

1.2 样本

从总体中取出一部分个体,这一部分个体称为样本或者子样。样本中所含个体的个数称为样本容量。取得样本的过程称为抽样。抽样过程所采取的方法称为抽样法
在数理统计中,采用的抽样法是随机抽样法,即样本中的每一个个体是从总体中随机地取出来的。采用随机抽样法得到的样本称为随机样本。
通常,定义样本(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)是n维你随机变量,这是针对具体进行一次抽样前而言。进行一次具体抽样后得到的是一族具体的实数(x1,x2,...,xn)(x_1,x_2,...,x_n)(x1​,x2​,...,xn​),他是样本(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)的一个观察值,称为样本值
我们抽取样本的目的是为了对总体分布进行各种分析、推断,因而要求抽取的样本能很好地反映总体的特性,这就必须对随机抽样的方法提出一定的要求,通常提出下面两点最有使用价值的要求:
1、样本的每个分量Xi(i=1,2,...,n)X_i(i=1,2,...,n)Xi​(i=1,2,...,n)必须与总体具有相同的分布
2、样本的各分量X1,X2,...,XnX_1,X_2,...,X_nX1​,X2​,...,Xn​是相互独立的。
具有上述两个性质的样本称为简单随机样本。获得简单随机样本的抽样方法称为简单随机抽样.
对于简单随机样本,其概率分布是由总体XXX的分布完全确定的。
P{X1=x1,X2=x2,...,Xn=xn}=∏i=1nP{Xi=xi}P\{X_1=x_1,X_2=x_2,...,X_n=x_n\}=\prod_{i=1}^{n}P\{X_i=x_i\}P{X1​=x1​,X2​=x2​,...,Xn​=xn​}=∏i=1n​P{Xi​=xi​}

1.3 统计量

1.3.1 统计量概念

样本是我们推断总体分布的依据,利用样本进行统计推断时,第一步的工作是要把样本中所包含的关于我们所关心的事务的信息集中起来,这便是针对不同的问题构造出样本的适当函数,这种函数在统计学中称为统计量。
注意:由于统计量是样本的函数,是随机变量,因此,对于不同的样本值得到的参数估计值往往是不相同的

定义:

设(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)是来自总体XXX的一个样本,T=g(X1,X2,...,Xn)T=g(X_1,X_2,...,X_n)T=g(X1​,X2​,...,Xn​)为(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)的一个实值函数,且ggg中不包含任何未知参数,则称TTT为样本(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)的一个统计量。若(x1,x2,...,xn)(x_1,x_2,...,x_n)(x1​,x2​,...,xn​)是样本(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)的一个观察值,则t=g(x1,x2,...,xn)t=g(x_1,x_2,...,x_n)t=g(x1​,x2​,...,xn​)称为统计量TTT的一个观察值。

1.3.2 几个常用的统计量

设(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)是来自总体XXX的样本,(x1,x2,...,xn)(x_1,x_2,...,x_n)(x1​,x2​,...,xn​)是这一样本的观察值。

1.3.2.1 样本均值

统计量:
Xˉ=1n∑i=1nXi=1n(X1+X2+...+Xn)\bar{X}=\dfrac{1}{n}\sum_{i=1}^nX_i=\dfrac{1}{n}(X_1+X_2+...+X_n)Xˉ=n1​∑i=1n​Xi​=n1​(X1​+X2​+...+Xn​)
称为样本均值,其观察值记为
xˉ=1n∑i=1nxi\bar{x}=\dfrac{1}{n}\sum_{i=1}^{n}x_ixˉ=n1​∑i=1n​xi​
定理:设总体XXX的均值(即数学期望)E(X)=μE(X)=\muE(X)=μ和方差D(X)=σ2D(X)=\sigma^2D(X)=σ2存在,则
(1)
E(Xˉ)=μE(\bar{X})=\muE(Xˉ)=μ
D(Xˉ)=σ2nD(\bar{X})=\dfrac{\sigma^2}{n}D(Xˉ)=nσ2​
(2)
lim⁡n→∞Xˉ=μ\lim_{n\rightarrow\infty}\bar{X}=\mulimn→∞​Xˉ=μ
证明:
(1) 因为X1,X2,...,XnX_1,X_2,...,X_nX1​,X2​,...,Xn​都与XXX有相同的分布,所以,E(Xi)=μE(X_i)=\muE(Xi​)=μ,D(Xi)=σ2(i=1,2,...,n)D(X_i)=\sigma^2(i=1,2,...,n)D(Xi​)=σ2(i=1,2,...,n)。又因为X1,X2,...,XnX_1,X_2,...,X_nX1​,X2​,...,Xn​相互独立,所以
E(Xˉ)=1n∑i=1nE(Xi)=μE(\bar{X})=\dfrac{1}{n}\sum_{i=1}^{n}E(X_i)=\muE(Xˉ)=n1​∑i=1n​E(Xi​)=μ
D(Xˉ)=D(∑i=1nXin)=D(∑i=1nXi)n2D(\bar{X})=D(\dfrac{\sum_{i=1}^{n}X_i}{n})=\dfrac{D(\sum_{i=1}^{n}X_i)}{n^2}D(Xˉ)=D(n∑i=1n​Xi​​)=n2D(∑i=1n​Xi​)​
因为每一次抽样是相互之间独立的,所以上面公式等于
∑i=1nD(Xi)n2==σ2n\dfrac{\sum_{i=1}^{n}D(X_i)}{n^2}==\dfrac{\sigma^2}{n}n2∑i=1n​D(Xi​)​==nσ2​
(2)由大数定律知成立
此定理表明,随着样本容量n的逐渐增大,样本均值Xˉ\bar{X}Xˉ以越来越大的概率落在总体均值μ\muμ的邻近,因此,样本均值常用于估计总体均值,或检验有关总体均值的假设。这里注意:样本均值不是总体分布的数学期望(总体均值)!!

1.3.2.2 样本方差和样本标准差

统计量:
S2=1n−1∑i=1n(Xi−Xˉ)2S^2=\dfrac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2S2=n−11​∑i=1n​(Xi​−Xˉ)2
称为样本方差,其观察值记为:
s2=1n−1∑i=1n(xi−xˉ)2s^2=\dfrac{1}{n-1}\sum_{i=1}^{n}(x_i-\bar{x})^2s2=n−11​∑i=1n​(xi​−xˉ)2
样本标准差
S=S2=1n−1∑i=1n(Xi−Xˉ)2S=\sqrt{S^2}=\sqrt{\dfrac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2}S=S2​=n−11​∑i=1n​(Xi​−Xˉ)2​

定理:设总体XXX的均值E(X)=μE(X)=\muE(X)=μ和方差D(X)=σ2D(X)=\sigma^2D(X)=σ2存,则E(S2)=σ2E(S^2)=\sigma^2E(S2)=σ2

证明
E(S2)=E(1n−1∑i=1n(Xi−Xˉ)2)=1n−1E(∑i=1n(Xi−Xˉ)2)=1n−1E(∑i=1nXi2+∑i=1nXˉ2−2Xˉ∑i=1nXi)=1n−1E(∑i=1nXi2−nXˉ2)=1n−1(∑i=1nE(Xi2)−nE(Xˉ2))E(S^2)=E(\dfrac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2)=\dfrac{1}{n-1}E(\sum_{i=1}^{n}(X_i-\bar{X})^2)=\dfrac{1}{n-1}E(\sum_{i=1}^{n}X_i^2+\sum_{i=1}^{n}\bar{X}^2-2\bar{X}\sum_{i=1}^{n}X_i)=\dfrac{1}{n-1}E(\sum_{i=1}^{n}X_i^2-n\bar{X}^2)=\dfrac{1}{n-1}(\sum_{i=1}^{n}E(X_i^2)-nE(\bar{X}^2))E(S2)=E(n−11​∑i=1n​(Xi​−Xˉ)2)=n−11​E(∑i=1n​(Xi​−Xˉ)2)=n−11​E(∑i=1n​Xi2​+∑i=1n​Xˉ2−2Xˉ∑i=1n​Xi​)=n−11​E(∑i=1n​Xi2​−nXˉ2)=n−11​(∑i=1n​E(Xi2​)−nE(Xˉ2))
注意:样本均值不是总体分布的数学期望(总体均值)!!样本均值是一个变量,它随着样本容量n的逐渐增大,样本均值Xˉ\bar{X}Xˉ以越来越大的概率落在总体均值μ\muμ的邻近。
因为:
E(Xi2)=D(Xi)+E(Xi)2=σ2+μ2E(X_i^2)=D(X_i)+E(X_i)^2=\sigma^2+\mu^2E(Xi2​)=D(Xi​)+E(Xi​)2=σ2+μ2
E(Xˉ2)=D(Xˉ)+E(Xˉ)2=σ2n+μ2E(\bar{X}^2)=D(\bar{X})+E(\bar{X})^2=\dfrac{\sigma^2}{n}+\mu^2E(Xˉ2)=D(Xˉ)+E(Xˉ)2=nσ2​+μ2
所以,上式等于:
1n−1(∑i=1nE(Xi2)−nE(Xˉ2))=1n−1(nσ2+nμ2−σ2−nμ2)=σ2\dfrac{1}{n-1}(\sum_{i=1}^{n}E(X_i^2)-nE(\bar{X}^2))=\dfrac{1}{n-1}(n\sigma^2+n\mu^2-\sigma^2-n\mu^2)=\sigma^2n−11​(∑i=1n​E(Xi2​)−nE(Xˉ2))=n−11​(nσ2+nμ2−σ2−nμ2)=σ2
证明了样本方差是总体方差的无偏估计量,无偏的概念后文中有介绍

第六章 数理统计学的基本概念

参数估计:所谓参数估计是指由样本对总体中的(未知)参数作出估计。参数全部可容许值组成的集合称为参数空间,记为Θ\ThetaΘ。另外,在有些实际问题中,事先并不知道总体XXX的分布类型,而要对其某些数字特征,如均值E(X)E(X)E(X)、方差D(X)D(X)D(X)等作出估计。通常,我们把这些数字特征也称为参数,这些问题也属于参数估计问题。
参数估计有点估计与区间估计两种方式。

6.1 点估计

6.1.1 估计量概念

估计量是关于样本的适当函数。
一般地,设总体XXX的分布函数是F(x;θ1,θ2,...,θl)F(x;\theta_1,\theta_2,...,\theta_l)F(x;θ1​,θ2​,...,θl​),其中θ1,θ2,...,θl\theta_1,\theta_2,...,\theta_lθ1​,θ2​,...,θl​是待估计的未知参数,(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)是来自总体XXX的样本,(x1,x2,...,xn)(x_1,x_2,...,x_n)(x1​,x2​,...,xn​)是相应的样本值,点估计问题就是要构造lll个适当的统计量θi^(X1,X2,...,Xn)(i=1,2,...,l)\hat{\theta_i}(X_1,X_2,...,X_n)(i=1,2,...,l)θi​^​(X1​,X2​,...,Xn​)(i=1,2,...,l),分别用观察值θ^i(x1,x2,...,xn)\hat\theta_i(x_1,x_2,...,x_n)θ^i​(x1​,x2​,...,xn​)作为未知参数θi\theta_iθi​的估计值。
注意:由于估计量是样本的函数,是随机变量,因此,对于不同的样本值得到的参数估计值往往是不相同的

6.1.2 估计量的求法

点估计量的求法有许多种,下面主要介绍常用的两种方法:矩估计法和极大似然估计法。
1、矩估计法:
设总体XXX的分布中含有lll个待估计的未知参数:θ1,θ2,...,θl\theta_1,\theta_2,...,\theta_lθ1​,θ2​,...,θl​,求出XXX的lll个原点矩,要求它们都是θ1,θ2,...,θl\theta_1,\theta_2,...,\theta_lθ1​,θ2​,...,θl​的函数。不妨设总体XXX的前lll阶矩ak=E(Xk)(k=1,2,...,l)a_k=E(X^k)(k=1,2,...,l)ak​=E(Xk)(k=1,2,...,l)存在,且都是θ1,θ2,...,θl\theta_1,\theta_2,...,\theta_lθ1​,θ2​,...,θl​的函数,即
ak=ak(θ1,θ2,...,θl)(k=1,2,...,l)a_k=a_k(\theta_1,\theta_2,...,\theta_l) (k=1,2,...,l)ak​=ak​(θ1​,θ2​,...,θl​)(k=1,2,...,l)
把上面各式中的总体矩用相应的样本矩代替,未知参数用其估计量代替,得:
ak(θ1^,θ2^,...,θl^)=Ak(k=1,2,...,l)a_k(\hat{\theta_1},\hat{\theta_2},...,\hat{\theta_l})=A_k (k=1,2,...,l)ak​(θ1​^​,θ2​^​,...,θl​^​)=Ak​(k=1,2,...,l)
解此方程组可得θ1^,θ2^,...,θl^\hat{\theta_1},\hat{\theta_2},...,\hat{\theta_l}θ1​^​,θ2​^​,...,θl​^​,并将它们作为θ1,θ2,...,θl\theta_1,\theta_2,...,\theta_lθ1​,θ2​,...,θl​的估计量。这种求估计量的方法称为矩估计法,简称矩法。用矩估计法求得的估计量称为矩估计量
矩估计法的理论依据是大数定律,当样本容量充分大时,样本矩AkA_kAk​以很大的概率落在总体矩aka_kak​的邻近,因而可用AkA_kAk​作为aka_kak​的矩估计量
2、极大似然估计法:
极大似然估计方法就是利用总体XXX的分布函数F(x;θ1,θ2,...,θl)F(x;\theta_1,\theta_2,...,\theta_l)F(x;θ1​,θ2​,...,θl​)的已知表达式及样本所提供的信息,来建立未知参数θi\theta_iθi​的估计量θi^(X1,X2,...,Xn)(i=1,2,...,l)\hat{\theta_i}(X_1,X_2,...,X_n)(i=1,2,...,l)θi​^​(X1​,X2​,...,Xn​)(i=1,2,...,l)。
定义 如果总体XXX是离散型或连续行随机变量,其分布律为
P{X=x}=p(x;θ1,θ2,...,θl)P\{X=x\}=p(x;\theta_1,\theta_2,...,\theta_l)P{X=x}=p(x;θ1​,θ2​,...,θl​)
或概率密度为:
f(x;θ1,θ2,...,θl)f(x;\theta_1,\theta_2,...,\theta_l)f(x;θ1​,θ2​,...,θl​)
其中,θ1,θ2,...,θl\theta_1,\theta_2,...,\theta_lθ1​,θ2​,...,θl​为未知参数,在参数空间Θ\ThetaΘ内取值,变元xxx在随机变量XXX的可能取值范围内取值。设(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)是来自总体XXX的样本,则(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)的联合分布律为:
L(x1,x2,...,xn;θ1,θ2,...,θl)=P{X=x1,X2=x2,...,Xn=xn}=∏i=1np(x;θ1,θ2,...,θl)L(x_1,x_2,...,x_n;\theta_1,\theta_2,...,\theta_l)=P\{X=x_1,X_2=x_2,...,X_n=x_n\}=\prod_{i=1}^{n}p(x;\theta_1,\theta_2,...,\theta_l)L(x1​,x2​,...,xn​;θ1​,θ2​,...,θl​)=P{X=x1​,X2​=x2​,...,Xn​=xn​}=∏i=1n​p(x;θ1​,θ2​,...,θl​)
或联合概率密度为:
L(x1,x2,...,xn;θ1,θ2,...,θl)=∏i=1nf(xi;θ1,θ2,...,θl)L(x_1,x_2,...,x_n;\theta_1,\theta_2,...,\theta_l)=\prod_{i=1}^{n}f(x_i;\theta_1,\theta_2,...,\theta_l)L(x1​,x2​,...,xn​;θ1​,θ2​,...,θl​)=∏i=1n​f(xi​;θ1​,θ2​,...,θl​)
上式也被称为似然函数,似然函数的对数称为对数似然函数。
极大似然估计法就是当得到样本值(x1,x2,...,xn)(x_1,x_2,...,x_n)(x1​,x2​,...,xn​)时,选取使似然函数L(x1,x2,...,xn;θ1,θ2,...,θl)L(x_1,x_2,...,x_n;\theta_1,\theta_2,...,\theta_l)L(x1​,x2​,...,xn​;θ1​,θ2​,...,θl​)取得最大值的θ1^,θ2^,...,θl^\hat{\theta_1},\hat{\theta_2},...,\hat{\theta_l}θ1​^​,θ2​^​,...,θl​^​,分别作为未知参数θ1,θ2,...,θl\theta_1,\theta_2,...,\theta_lθ1​,θ2​,...,θl​的估计值。
这样得到的θ1^,θ2^,...,θl^\hat{\theta_1},\hat{\theta_2},...,\hat{\theta_l}θ1​^​,θ2​^​,...,θl​^​与样本值(x1,x2,...,xn)(x_1,x_2,...,x_n)(x1​,x2​,...,xn​)有关,记为θi^=θi^(x1,x2,...,xn)\hat{\theta_i}=\hat{\theta_i}(x_1,x_2,...,x_n)θi​^​=θi​^​(x1​,x2​,...,xn​),并称为参数θi(i=1,2,...,l)\theta_i(i=1,2,...,l)θi​(i=1,2,...,l)的极大似然估计值,而相应的统计量θi^(X1,X2,...,Xn)(i=1,2,...,l)\hat{\theta_i}(X_1,X_2,...,X_n)(i=1,2,...,l)θi​^​(X1​,X2​,...,Xn​)(i=1,2,...,l)称为参数θi\theta_iθi​的极大似然估计量
由于lnxlnxlnx是xxx的单调上升函数,因此lnL(θ1,θ2,...,θl)lnL(\theta_1,\theta_2,...,\theta_l)lnL(θ1​,θ2​,...,θl​)与L(θ1,θ2,...,θl)L(\theta_1,\theta_2,...,\theta_l)L(θ1​,θ2​,...,θl​)有相同的极大值点,因此,可以等价地选取使对数似然函数lnL(x1,x2,...,xn;θ1,θ2,...,θl)lnL(x_1,x_2,...,x_n;\theta_1,\theta_2,...,\theta_l)lnL(x1​,x2​,...,xn​;θ1​,θ2​,...,θl​)取得最大值的θ1^,θ2^,...,θl^\hat{\theta_1},\hat{\theta_2},...,\hat{\theta_l}θ1​^​,θ2​^​,...,θl​^​,分别作为未知参数θ1,θ2,...,θl\theta_1,\theta_2,...,\theta_lθ1​,θ2​,...,θl​的估计值。
很多情形下,似然函数和对数似然函数关于θ1,θ2,...,θl\theta_1,\theta_2,...,\theta_lθ1​,θ2​,...,θl​的偏导数存在,此时θ1^,θ2^,...,θl^\hat{\theta_1},\hat{\theta_2},...,\hat{\theta_l}θ1​^​,θ2​^​,...,θl​^​可以从方程组
∂L(θ1,θ2,...,θl)∂θj=0(j=1,2,...,l)\dfrac{\partial{L(\theta_1,\theta_2,...,\theta_l)}}{\partial{\theta_j}}=0(j=1,2,...,l)∂θj​∂L(θ1​,θ2​,...,θl​)​=0(j=1,2,...,l)
或方程组
∂lnL(θ1,θ2,...,θl)∂θj=0(j=1,2,...,l)\dfrac{\partial{lnL(\theta_1,\theta_2,...,\theta_l)}}{\partial{\theta_j}}=0(j=1,2,...,l)∂θj​∂lnL(θ1​,θ2​,...,θl​)​=0(j=1,2,...,l)
上面两个方程组分别称为似然方程和对数似然方程。

6.1.3 估计量的评选标准
6.1.3.1 无偏性

估计量是随机变量,对于不同的样本值就会得到不同的估计值。这样,我们要确定一个估计量的好坏,不能仅仅依据某次抽样的结果来衡量,而必须由多次抽样的结果来衡量。
无偏性:尽管在一次抽样中得到的估计值不一定恰好等于待估计的参数真值,但在大量重复抽样(样本容量相同)时,所得到的估计值平均起来应该与待估计的参数真值相同,这就是无偏性的要求。
定义:设(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)是来自总体XXX的一个样本,θ\thetaθ是包含在XXX的分布中的未知参数,θ\thetaθ的取值范围为Θ\ThetaΘ,θ^=θ^(X1,X2,...,Xn)\hat{\theta}=\hat{\theta}(X_1,X_2,...,X_n)θ^=θ^(X1​,X2​,...,Xn​)是θ\thetaθ的一个估计量。如果对任意θ∈Θ\theta\in\Thetaθ∈Θ有:
E(θ^)=θE(\hat{\theta})=\thetaE(θ^)=θ
则称θ^\hat{\theta}θ^是θ\thetaθ的一个无偏估计量
一个估计量如果不是无偏的就称它是有偏估计量,并且称E(θ^)−θE(\hat{\theta})-\thetaE(θ^)−θ为估计量θ^\hat{\theta}θ^的偏差或简称为
如果E(θ^)−θ≠0E(\hat{\theta})-\theta\ne0E(θ^)−θ​=0,但是当样本容量n→∞n\to\inftyn→∞时,有
limn→∞[E(θ^)−θ]=0lim_{n\to\infty}[E(\hat{\theta})-\theta]=0limn→∞​[E(θ^)−θ]=0
则称θ^\hat{\theta}θ^为θ\thetaθ的渐进无偏估计量

6.1.3.2 有效性

有效性:衡量一个参数的两个无偏估计量哪个更好的标准,应该看它们谁的取值更集中,即方差更小。
定义:设(X1,X2,...,Xn)(X_1,X_2,...,X_n)(X1​,X2​,...,Xn​)是来自总体XXX的样本,θ\thetaθ是XXX的分布中包含的待估参数,θ^=θ^(X1,X2,...,Xn)\hat{\theta}=\hat{\theta}(X_1,X_2,...,X_n)θ^=θ^(X1​,X2​,...,Xn​)和θ^∗=θ^∗(X1,X2,...,Xn)\hat{\theta}^*=\hat{\theta}^*(X_1,X_2,...,X_n)θ^∗=θ^∗(X1​,X2​,...,Xn​)都是θ\thetaθ的无偏估计量,如果
D(θ^)<=D(θ^∗)D(\hat{\theta})<=D(\hat{\theta}^*)D(θ^)<=D(θ^∗)

E[(θ^−θ)2]<=E[(θ^∗−θ)2]E[(\hat{\theta}-\theta)^{2}]<=E[(\hat{\theta}^*-\theta)^{2}]E[(θ^−θ)2]<=E[(θ^∗−θ)2]
则称θ^\hat{\theta}θ^较θ^∗\hat{\theta}^*θ^∗有效。

【总结】期望和方差以及为什么方差是要除以n-1相关推荐

  1. python计算样本方差_Python计算库numpy进行方差/标准方差/样本标准方差/协方差的计算...

    使用numpy可以做很多事情,在这篇文章中简单介绍一下如何使用numpy进行方差/标准方差/样本标准方差/协方差的计算. variance: 方差 方差(Variance)是概率论中最基础的概念之一, ...

  2. python方差齐性检验_方差分析中的方差齐性检验_方差齐性检验结果分析

    方差分析中的方差齐性检验_方差齐性检验结果分析_方差分析 齐性检验 方差分析时的方差齐性检验是方差分析的前提条件,还是只是后面进行均值的多重比较时选择分析方法的依据?看过几本书,这两种观点都有.我看方 ...

  3. python方差的计算公式_Python计算库numpy进行方差/标准方差/样本标准方差/协方差的计算...

    使用numpy可以做很多事情,在这篇文章中简单介绍一下如何使用numpy进行方差/标准方差/样本标准方差/协方差的计算. variance: 方差 方差(Variance)是概率论中最基础的概念之一, ...

  4. 因子分析累计贡献率_累计方差贡献率和方差贡献率是什么关系SPSS中~~

    各方差贡献率相加和等于累计方差贡献率.主成分分析的重点在于解释各变量的总方差,而因子分析则把重点放在解释各变量之间的协方差.主成分分析中不需要有假设,因子分析则需要一些假设.因子分析的假设包括:各个共 ...

  5. pca 累积方差贡献率公式_累计方差贡献率和方差贡献率是什么关系SPSS中~~

    展开全部 各方差贡献率62616964757a686964616fe59b9ee7ad9431333431356637相加和等于累计方差贡献率. 主成分分析的重点在于解释各变量的总方差,而因子分析则把 ...

  6. 有偏样本方差、无偏样本方差

    1.有偏样本方差.无偏样本方差 笔记来源:Why Dividing By N Underestimates the Variance 1.1 为什么样本方差总是小于总体方差? 由于总体量太大,我们要耗 ...

  7. 深度理解期望、方差偏差与方差偏差分解

    前言 我们经常用偏差-方差分解形式来度量机器学习模型泛化能力的内容.本文将从数学基础来解释其演进过程.我们先从数学期望开始. 1.数学期望 概率论是描述现实世界的一个重要学科.我们从现实世界了解数学规 ...

  8. allan方差 matlab,Allan方差是什么?(上)

    1.引言 在研究晶体振荡器和原子钟的稳定性时,人们发现这些系统的相位噪声中不仅有白噪声,而且有闪烁噪声.使用传统的统计工具(例如标准差)分析这类噪声时统计结果是无法收敛的.为了解决这个问题,David ...

  9. 方差 标准差_方差与标准差——杭州市初中数学核心组寒假微课学习八年级第38课...

    国家正值非常时期,开学已经推迟,为响应"在推迟开学时段,指导各地各校充分利用'互联网+'的模式共享优质教育资源,开展远程教育教学活动和学生课业辅导,努力实现我市广大中小学校学'停课不停学', ...

最新文章

  1. 浅谈摄像头有关的安全问题
  2. NYOJ 645 骰子
  3. idea ssh连接mysql数据库_mysql命令行客户端如何通过ssh服务器连接数据库啊?
  4. 文本比较算法Ⅱ——Needleman/Wunsch算法
  5. 从1985年到2020年,编程语言排行有哪些变化?
  6. 转载---设计模式分类
  7. Typora 开始收费, 不妨试试这个开源免费的MD编辑器
  8. linux aspnet服务器,在Linux中安装ASPNET.Core3.0运行时的示例代码
  9. 精通SpringBoot——第二篇:视图解析器,静态资源和区域配置
  10. 2018年高二计算机试题,2018年上学期高二信息技术期末考试试题.pdf
  11. Redis轻松实现秒杀系统
  12. 大数据之-Hadoop3.x_MapReduce_MapTask工作机制---大数据之hadoop3.x工作笔记0124
  13. 7种超粗体字体(带有示例)
  14. IAR移植FreeRTOS
  15. 电子元器件选型——二极管
  16. 关于Latex中smart pdf反向搜索问题
  17. 锂电池容量电压对照表_商业化磷酸铁锂电池PK三元锂电池 谁更胜一筹?
  18. 按摩新方法(辅助药物治疗肝,肾,肺等慢性疾病)
  19. Vulhub-DC-8靶场实战攻略
  20. Attempt to invoke virtual method ‘boolean android.graphics.Bitmap.isRecycled()‘

热门文章

  1. 安装JDK+SDK+eclipse+Android Studio+模拟器(夜神OK,AVD黑屏)
  2. 深度解密Mysql数据库索引
  3. 戴尔台式计算机怎么安装的,戴尔台式系统安装图解 戴尔台式机一键安装系统...
  4. LeetCode琅琊榜第九层-加油站问题(图表法)
  5. php支付宝pc收银台,支付宝支付-PC电脑网站支付
  6. 线索二叉树(前中后序线索化/遍历/画线索)
  7. 史上最全网址导航大全,让世上没有找不到的好东西
  8. 《大象 Thinking in UML》学习笔记(一)——为什么需要UML?
  9. 去除眼袋(画笔涂抹法)
  10. 手把手教你用Unet实现语义分割(Pytorch版)