统计学习方法概论题

  • 统计学习方法概论
    • 实现统计学习方法的步骤
    • 统计学习方法三要素
      • 模型
      • 策略
      • 损失函数与风险函数
        • 定义
      • 常用损失函数
        • 经验风险最小化(ERM)与结构风险最小化(SRM)
    • 模型评估与模型选择
      • 过拟合与模型选择
    • 正则化与交叉验证
    • 泛化能力
    • 生成模型与判别模型
      • 生成方法
      • 判别方法
    • 最小二乘法的实现
    • 伯努利模型
      • 习题1.1
      • 解法一:求最大后验估计
      • 补充知识:Beta分布
      • 解法二:求后验概率分布的期望
      • 习题1.2

统计学习方法概论

实现统计学习方法的步骤

统计学习方法三要素:模型,策略,算法

  1. 得到一个有限的训练数据集合
  2. 确定包含所有可能的模型的假设空间,即学习模型的集合
  3. 确定模型选择的准则,即学习的策略
  4. 实现求解最优模型的算法,即学习的算法
  5. 通过学习方法选择最优的模型
  6. 利用学习的最优模型对新数据进行预测或分析

统计学习方法三要素

模型

在监督学习过程中,模型就是所要学习的条件概率分布或者决策函数
(公式粘贴不上来,有小伙伴知道怎么导入的求告知)

策略

损失函数与风险函数

定义

损失函数度量模型一次预测的好坏,风险函数度量平均意义下模型预测的好坏。

  1. 损失函数或代价函数
  • 损失函数定义为给定输入 X X X的预测值 f ( X ) f(X) f(X)和真实值 Y Y Y之间的非负实值函数,记作 L ( Y , f ( X ) ) L(Y,f(X)) L(Y,f(X))
  1. 风险函数或期望损失这个和模型的泛化误差的形式是一样的
  • R e x p ( f ) = E p [ L ( Y , f ( X ) ) ] = ∫ X × Y L ( y , f ( x ) ) P ( x , y ) d x d y R_{exp}(f)=E_p[L(Y, f(X))]=\int_{\mathcal X\times\mathcal Y}L(y,f(x))P(x,y)\, {\rm d}x{\rm d}y Rexp​(f)=Ep​[L(Y,f(X))]=∫X×Y​L(y,f(x))P(x,y)dxdy
  • 模型 f ( X ) f(X) f(X)关于联合分布 P ( X , Y ) P(X,Y) P(X,Y)的平均意义下的损失(期望损失),但是因为 P ( X , Y ) P(X,Y) P(X,Y)是未知的,所以前面的用词是期望,以及平均意义下的。这个表示其实就是损失的均值,反映了对整个数据的预测效果的好坏
  1. 经验风险经验损失
  • R e m p ( f ) = 1 N ∑ i = 1 N L ( y i , f ( x i ) ) R_{emp}(f)=\frac{1}{N}\sum^{N}_{i=1}L(y_i,f(x_i)) Remp​(f)=N1​∑i=1N​L(yi​,f(xi​))
  • 模型 f f f关于训练样本集的平均损失,根据大数定律,当样本容量N趋于无穷大时,经验风险趋于期望风险
  1. *结构风险
  • R s r m ( f ) = 1 N ∑ i = 1 N L ( y i , f ( x i ) ) + λ J ( f ) R_{srm}(f)=\frac{1}{N}\sum_{i=1}^{N}L(y_i,f(x_i))+\lambda J(f) Rsrm​(f)=N1​∑i=1N​L(yi​,f(xi​))+λJ(f)
  • J ( f ) J(f) J(f)为模型复杂度, λ ⩾ 0 \lambda \geqslant 0 λ⩾0是系数,用以权衡经验风险和模型复杂度。

常用损失函数

理论上 ,损失函数数值越小,模型就越好,需要与过拟合相区别!
L ( Y , f ( X ) ) L(Y,f(X)) L(Y,f(X))

  1. 0-1损失
    L = { 1 , Y ≠ f ( X ) 0 , Y = f ( X ) L=\begin{cases}1, Y \neq f(X) \\0, Y=f(X) \end{cases} L={1,Y​=f(X)0,Y=f(X)​
  2. 平方损失
    L = ( Y − f ( X ) ) 2 L=(Y-f(X))^2 L=(Y−f(X))2
  3. 绝对损失
    L = ∣ Y − f ( X ) ∣ L=|Y-f(X)| L=∣Y−f(X)∣
    L ( Y , P ( Y ∣ X ) ) L(Y,P(Y|X)) L(Y,P(Y∣X))
  4. 对数损失
    这里 P ( Y ∣ X ) ⩽ 1 P(Y|X)\leqslant 1 P(Y∣X)⩽1,对应的对数是负值,所以对数损失中包含一个负号,为什么不是绝对值?因为肯定是负的。
    L = − log ⁡ P ( Y ∣ X ) L=-\log P(Y|X) L=−logP(Y∣X)

经验风险最小化(ERM)与结构风险最小化(SRM)

  1. 极大似然估计是经验风险最小化的一个例子
    当模型是条件概率分布,损失函数是对数损失函数时,经验风险最小化等价于极大似然估计
  2. 贝叶斯估计中的最大后验概率估计是结构风险最小化的一个例子
    当模型是条件概率分布,损失函数是对数损失函数,模型复杂度由模型的先验概率表示时,结构风险最小化等价于最大后验概率估计

模型评估与模型选择

训练误差和测试误差是模型关于数据集的平均损失。
备注:统计学习方法具体采用的损失函数未必是评估时使用的损失函数。

过拟合与模型选择

例子:
训练数据为 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x N , y N ) } T=\{(x_1, y_1),(x_2,y_2),\cdots,(x_N,y_N)\} T={(x1​,y1​),(x2​,y2​),⋯,(xN​,yN​)}

模型

f M ( x , w ) = w 0 + w 1 x + w 2 x 2 + ⋯ + w M x M = ∑ j = 0 M w j x j f_M(x,w)=w_0+w_1x+w_2x^2+\cdots+w_Mx^M=\sum\limits_{j=0}^Mw_jx^j fM​(x,w)=w0​+w1​x+w2​x2+⋯+wM​xM=j=0∑M​wj​xj

经验风险最小化策略下

L ( w ) = 1 2 ∑ i = 1 N ( f ( x i , w ) − y i ) 2 L(w)=\frac{1}{2}\sum\limits_{i=1}^N(f(x_i,w)-y_i)^2 L(w)=21​i=1∑N​(f(xi​,w)−yi​)2

将模型和训练数据带入到上式得到

L ( w ) = 1 2 ∑ i = 1 N ( ∑ j = 0 M w j x i j − y i ) 2 = 1 2 ∑ i = 1 N ( w ⋅ x i − y i ) 2 L(w)=\frac{1}{2}\sum\limits_{i=1}^N\left(\sum\limits_{j=0}^Mw_jx_i^j-y_i\right)^2=\frac{1}{2}\sum\limits_{i=1}^N(w\cdot x_i-y_i)^2 L(w)=21​i=1∑N​(j=0∑M​wj​xij​−yi​)2=21​i=1∑N​(w⋅xi​−yi​)2

这个问题要求 w = ( w 0 ∗ , w 1 ∗ , ⋯ , w M ∗ ) w=(w_0^*,w_1^*,\cdots,w_M^*) w=(w0∗​,w1∗​,⋯,wM∗​)

对 w w w求偏导令其为零,得到一系列方程,求解可以用梯度下降或者矩阵分解。

求解线性方程组 A x = b Ax=b Ax=b,可以表示为 x = A / b x=A/b x=A/b,问题展开之后可以涉及到矩阵分解

正则化与交叉验证

  1. 正则化
    模型选择的典型方法是正则化
  2. 交叉验证
    另一种常用的模型选择方法是交叉验证

    • 简单
    • S折(K折, K-Fold)[^1]
    • 留一法

泛化能力

  • 现实中采用最多的方法是通过测试误差来评价学习方法的泛化能力

  • 统计学习理论试图从理论上对学习方法的泛化能力进行分析

  • 学习方法的泛化能力往往是通过研究泛化误差的概率上界进行的, 简称为泛化误差上界(generalization error bound)

    这本书里面讨论的不多,在CH08里面有讨论提升方法的误差分析, 提到 A d a B o o s t AdaBoost AdaBoost不需要知道下界 γ \gamma γ。在CH02中讨论算法的收敛性的时候有提到误分类次数的上界.

注意泛化误差的定义,书中有说事实上,泛化误差就是所学习到的模型的期望风险

生成模型与判别模型

监督学习方法:可分为生成方法(generative approach)与判别方法(discriminative approach)

生成方法

  • 可以还原出联合概率分布 P ( X , Y ) P(X,Y) P(X,Y)
  • 收敛速度快, 当样本容量增加时, 学到的模型可以更快收敛到真实模型
  • 当存在隐变量时仍可以用

判别方法

  • 直接学习条件概率 P ( Y ∣ X ) P(Y|X) P(Y∣X)或者决策函数 f ( X ) f(X) f(X)
  • 直接面对预测, 往往学习准确率更高
  • 可以对数据进行各种程度的抽象, 定义特征并使用特征, 可以简化学习问题

总结思路:

最小二乘法的实现

import numpy as np
from scipy.optimize import leastsq
import matplotlib.pyplot as plt# 目标函数
def real_func(x):return np.sin(2*np.pi*x)# 多项式
def fit_func(p, x):f = np.poly1d(p)return f(x)# 残差
def residuals_func(p, x, y):ret = fit_func(p, x) - y #注意此处没有平方return retregularization = 0.0001#正则化之后的残差
def residuals_func_regularization(p, x, y):ret = fit_func(p, x) - yret = np.append(ret, np.sqrt(0.5*regularization*np.square(p))) # L2范数作为正则化项return ret# 十个点'
x = np.linspace(0, 1, 10)
x_points = np.linspace(0, 1, 1000)
# 加上正态分布噪音的目标函数的值
y_ = real_func(x)
y = [np.random.normal(0, 0.1) + y1 for y1 in y_]index = 0
plt.figure(figsize=(15, 8))def fitting(M=0):"""M    为 多项式的次数"""# 随机初始化多项式参数p_init = np.random.rand(M + 1)# 最小二乘法p_lsq = leastsq(residuals_func, p_init, args=(x, y))#p_lsq = leastsq(residuals_func_regularization, p_init, args=(x, y)) #加入正则化print('Fitting Parameters:', p_lsq[0])# 可视化plt.subplot(141 + index)plt.plot(x_points, real_func(x_points), label='real')plt.plot(x_points, fit_func(p_lsq[0], x_points), label='fitted curve')plt.plot(x, y, 'bo', label='noise')plt.legend()return p_lsq
for i in [0, 1, 3, 9]:lsq_0 = fitting(i)index += 1
plt.subplots_adjust(top=0.92, bottom=0.08, left=0.10, right=0.95, hspace=0.25,wspace=0.35) #调整子图间距
plt.savefig("result.jpg")
plt.show()

伯努利模型

习题1.1

  1. 根据题意:伯努利模型是定义在取值为0与1的随机变量上的概率分布。
    对于随机变量XX,则有:
    P ( X = 1 ) = p P ( X = 0 ) = 1 − p \begin{gathered} P(X=1)=p \\ P(X=0)=1-p \end{gathered} P(X=1)=pP(X=0)=1−p​

    其中,pp为随机变量XX取值为1的概率,1-p1−p则为取0的概率。
    由于随机变量XX只有0和1两个值,XX的概率分布函数,即伯努利模型可写为:
    P p ( X = x ) = p x ( 1 − p ) ( 1 − x ) , 0 ⩽ p ⩽ 1 P_{p}(X=x)=p^{x}(1-p)^{(1-x)}, \quad 0 \leqslant p \leqslant 1 Pp​(X=x)=px(1−p)(1−x),0⩽p⩽1
    则伯努利模型的假设空间为:
    F = { P ∣ P p ( X ) = p x ( 1 − p ) ( 1 − x ) , p ∈ [ 0 , 1 ] } \mathcal{F}=\left\{P \mid P_{p}(X)=p^{x}(1-p)^{(1-x)}, p \in[0,1]\right\} F={P∣Pp​(X)=px(1−p)(1−x),p∈[0,1]}

  2. 伯努利模型的极大似然估计以及贝叶斯估计中的统计学习方法三要素
    (1). 极大似然估计
      模型:伯努利模型
      策略:经验风险最小化。极大似然估计,等价于当模型是条件概率分布、损失函数是对数损失函数时的经验风险最小化。
      算法:极大化似然
    arg ⁡ max ⁡ p L ( p ∣ X ) = arg ⁡ max ⁡ p P ( X ∣ p ) \underset{p}{\arg \max } L(p \mid X)=\underset{p}{\arg \max } P(X \mid p) pargmax​L(p∣X)=pargmax​P(X∣p)
    (2)贝叶斯估计
      模型:伯努利模型
      策略:结构风险最小化。贝叶斯估计中的最大后验概率估计,等价于当模型是条件概率分布、损失函数是对数损失函数、模型复杂度由模型的先验概率表示时的结构风险最小化。
      算法:最大化后验概率:
       arg ⁡ max ⁡ p π ( p ∣ X ) = arg ⁡ max ⁡ p P ( X ∣ p ) π ( p ) ∫ P ( X ∣ p ) π ( p ) d p \underset{p}{\arg \max } \pi(p \mid X)=\underset{p}{\arg \max } \frac{P(X \mid p) \pi(p)}{\int P(X \mid p) \pi(p) d p} pargmax​π(p∣X)=pargmax​∫P(X∣p)π(p)dpP(X∣p)π(p)​
    (3) 伯努利模型的极大似然估计
    极大似然估计的一般步骤:

    1. 写出随机变量的概率分布函数;
    2. 写出似然函数;
    3. 对似然函数取对数,得到对数似然函数,并进行化简;
    4. 对参数进行求导,并令导数等于0;
    5. 求解似然函数方程,得到参数的值。
      对于伯努利模型nn次独立的数据生成结果,其中kk次的结果为1,可得似然函数为:
      L ( p ∣ X ) = P ( X ∣ p ) = ∏ i = 1 n P ( x ( i ) ∣ p ) = p k ( 1 − p ) n − k \begin{aligned} L(p \mid X) &=P(X \mid p) \\ &=\prod_{i=1}^{n} P\left(x^{(i)} \mid p\right) \\ &=p^{k}(1-p)^{n-k} \end{aligned} L(p∣X)​=P(X∣p)=i=1∏n​P(x(i)∣p)=pk(1−p)n−k​
      对似然函数取对数,得到对数似然函数为:
      log ⁡ L ( p ∣ X ) = log ⁡ p k ( 1 − p ) n − k = log ⁡ ( p k ) + log ⁡ ( ( 1 − p ) n − k ) = k log ⁡ p + ( n − k ) log ⁡ ( 1 − p ) \begin{aligned} \log L(p \mid X) &=\log p^{k}(1-p)^{n-k} \\ &=\log \left(p^{k}\right)+\log \left((1-p)^{n-k}\right) \\ &=k \log p+(n-k) \log (1-p) \end{aligned} logL(p∣X)​=logpk(1−p)n−k=log(pk)+log((1−p)n−k)=klogp+(n−k)log(1−p)​
      求解参数p:
      p ^ = arg ⁡ max ⁡ p L ( p ∣ X ) = arg ⁡ max ⁡ p [ k log ⁡ p + ( n − k ) log ⁡ ( 1 − p ) ] \begin{aligned} \hat{p} &=\underset{p}{\arg \max } L(p \mid X) \\ &=\underset{p}{\arg \max }[k \log p+(n-k) \log (1-p)] \end{aligned} p^​​=pargmax​L(p∣X)=pargmax​[klogp+(n−k)log(1−p)]​
      对参数p求导,并求解导数为0时的p值:
      ∂ log ⁡ L ( p ) ∂ p = k p − n − k 1 − p = k ( 1 − p ) − p ( n − k ) p ( 1 − p ) = k − n p p ( 1 − p ) \begin{aligned} \frac{\partial \log L(p)}{\partial p} &=\frac{k}{p}-\frac{n-k}{1-p} \\ &=\frac{k(1-p)-p(n-k)}{p(1-p)} \\ &=\frac{k-n p}{p(1-p)} \end{aligned} ∂p∂logL(p)​​=pk​−1−pn−k​=p(1−p)k(1−p)−p(n−k)​=p(1−p)k−np​​
       令 ∂ log ⁡ L ( p ) ∂ p = 0 \frac{\partial \log L(p)}{\partial p}=0 ∂p∂logL(p)​=0从上式可得 k − n p = 0 k-n p=0 k−np=0 ,即 p = k n p=\frac{k}{n} p=nk​
       所以 P ( X = 1 ) = k n P(X=1)=\frac{k}{n} P(X=1)=nk​

第4步:伯努利模型的贝叶斯估计

解法一:求最大后验估计

  1. 确定参数\thetaθ的先验概率 p ( θ ) p(\theta) p(θ)
  2. 根据样本集 D = { x 1 , x 2 , … , x n } D=\left\{x_{1}, x_{2}, \ldots, x_{n}\right\} D={x1​,x2​,…,xn​}计算似然函数 P ( D ∣ θ ) : P ( D ∣ θ ) = ∏ i = 1 n P ( x n ∣ D ) P(D \mid \theta): P(D \mid \theta)=\prod_{i=1}^{n} P\left(x_{n} \mid D\right) P(D∣θ):P(D∣θ)=∏i=1n​P(xn​∣D)
  3. 利用贝叶斯公式,写出后验概率最大化公式:
    arg ⁡ max ⁡ θ P ( θ ∣ D ) = arg ⁡ max ⁡ θ P ( D ∣ θ ) P ( θ ) ∫ Θ P ( D ∣ θ ) P ( θ ) d θ = arg ⁡ max ⁡ θ P ( D ∣ θ ) P ( θ ) \underset{\theta}{\arg \max } P(\theta \mid D)=\underset{\theta}{\arg \max } \frac{P(D \mid \theta) P(\theta)}{\int_{\Theta} P(D \mid \theta) P(\theta) d \theta}=\underset{\theta}{\arg \max } P(D \mid \theta) P(\theta) θargmax​P(θ∣D)=θargmax​∫Θ​P(D∣θ)P(θ)dθP(D∣θ)P(θ)​=θargmax​P(D∣θ)P(θ)
  4. 利用求导,得到后验概率最大时的参数取值,假设pp的先验分布\pi§π§为均匀分布,则最大后验概率估计等价于极大似然估计。
      一般在贝叶斯估计中,如果后验分布与先验分布属于同一分布簇(共轭分布),则称此先验分布为似然函数的共轭先验。
    选取共轭先验有如下好处,例如:
    (1)符合直观,先验分布和后验分布应该是相同形式的;
    (2)可以给出后验分布的解析形式;
    (3)可以形成一个先验链,即现在的后验分布可以作为下一次计算的先验分布,如果形式相同,就可以形成一个链条。
    伯努利分布的先验分布为Beta分布,则此处假设先验分布\pi§π§为Beta分布。

补充知识:Beta分布

Beta 分布(Beta distribution),是指一组定义在{\displaystyle (0,1)}(0,1)区间的连续概率分布,亦称Β分布。有两个参数 α \alpha α, β \beta β>0, β \beta β>0。
概率密度函数:
f ( x ; α , β ) = 1 B ( α , β ) x ( α − 1 ) ( 1 − x ) β − 1 f(x ; \alpha, \beta)=\frac{1}{\mathrm{~B}(\alpha, \beta)} x^{(\alpha-1)}(1-x)^{\beta-1} f(x;α,β)= B(α,β)1​x(α−1)(1−x)β−1
其中B ( α , β ) (\alpha, \beta) (α,β) 是Beta函数,亦称 B \mathrm{B} B 函数。 B ( α , β ) = ∫ 0 1 x α − 1 ( 1 − x ) β − 1 d x \mathrm{B}(\alpha, \beta)=\int_{0}^{1} x^{\alpha-1}(1-x)^{\beta-1} d x B(α,β)=∫01​xα−1(1−x)β−1dx
随机变量 X X X 服从参数为 α , β \alpha, \beta α,β 的Beta分布记作: X ∼ Be ⁡ ( α , β ) X \sim \operatorname{Be}(\alpha, \beta) X∼Be(α,β) 期望: E ( X ) = α α + β \mathrm{E}(X)=\frac{\alpha}{\alpha+\beta} E(X)=α+βα​
与均匀分布关系:当 α = 1 , β = 1 \alpha=1, \beta=1 α=1,β=1 时, Beta分布就是一个均匀分布
p的先验分布为:
π ( p ) = 1 B ( α , β ) p ( α − 1 ) ( 1 − p ) β − 1 \pi(p)=\frac{1}{B(\alpha, \beta)} p^{(\alpha-1)}(1-p)^{\beta-1} π(p)=B(α,β)1​p(α−1)(1−p)β−1
似然函数与第3步相同:
L ( p ∣ X ) = P ( X ∣ p ) = ∏ i = 1 n P ( x ( i ) ∣ p ) = p k ( 1 − p ) n − k \begin{aligned} L(p \mid X) &=P(X \mid p) \\ &=\prod_{i=1}^{n} P\left(x^{(i)} \mid p\right) \\ &=p^{k}(1-p)^{n-k} \end{aligned} L(p∣X)​=P(X∣p)=i=1∏n​P(x(i)∣p)=pk(1−p)n−k​
最大化后验概率,求解参数p:
p ^ = arg ⁡ max ⁡ p P ( X ∣ p ) π ( p ) ∫ P ( X ∣ p ) π ( p ) d p = arg ⁡ max ⁡ p P ( X ∣ p ) π ( p ) = arg ⁡ max ⁡ p p k ( 1 − p ) n − k 1 B ( α , β ) p ( α − 1 ) ( 1 − p ) β − 1 = arg ⁡ max ⁡ p 1 B ( α , β ) p k + α − 1 ( 1 − p ) n − k + β − 1 \begin{aligned} \hat{p} &=\underset{p}{\arg \max } \frac{P(X \mid p) \pi(p)}{\int P(X \mid p) \pi(p) d p} \\ &=\underset{p}{\arg \max } P(X \mid p) \pi(p) \\ &=\underset{p}{\arg \max } p^{k}(1-p)^{n-k} \frac{1}{B(\alpha, \beta)} p^{(\alpha-1)}(1-p)^{\beta-1} \\ &=\underset{p}{\arg \max } \frac{1}{B(\alpha, \beta)} p^{k+\alpha-1}(1-p)^{n-k+\beta-1} \end{aligned} p^​​=pargmax​∫P(X∣p)π(p)dpP(X∣p)π(p)​=pargmax​P(X∣p)π(p)=pargmax​pk(1−p)n−kB(α,β)1​p(α−1)(1−p)β−1=pargmax​B(α,β)1​pk+α−1(1−p)n−k+β−1​
令 g ( p ) = 1 B ( α , β ) p k + α − 1 ( 1 − p ) n − k + β − 1 g(p)=\frac{1}{B(\alpha, \beta)} p^{k+\alpha-1}(1-p)^{n-k+\beta-1} g(p)=B(α,β)1​pk+α−1(1−p)n−k+β−1 ,对函数 g ( p ) g(p) g(p) 先取对数,再对 p p p 求导,得
∂ log ⁡ g ( p ) ∂ p = 1 B ( α , β ) ( k + α − 1 p − n − k + β − 1 1 − p ) \frac{\partial \log g(p)}{\partial p}=\frac{1}{B(\alpha, \beta)}\left(\frac{k+\alpha-1}{p}-\frac{n-k+\beta-1}{1-p}\right) ∂p∂logg(p)​=B(α,β)1​(pk+α−1​−1−pn−k+β−1​)
令上式等于 0 ,得 p ^ = k + α − 1 n + α + β − 2 \hat{p}=\frac{k+\alpha-1}{n+\alpha+\beta-2} p^​=n+α+β−2k+α−1​ ,其中 α , β \alpha, \beta α,β 为beta分布的参数。
所以最大后验概率估计得到 P ( X = 1 ) = k + α − 1 n + α + β − 2 P(X=1)=\frac{k+\alpha-1}{n+\alpha+\beta-2} P(X=1)=n+α+β−2k+α−1​

解法二:求后验概率分布的期望

贝叶斯估计中的最大后验概率估计,得到的是模型参数\thetaθ这个随机变量的后验分布的众数,通常被认为是点估计。而贝叶斯方法的特点是使用分布来总结数据和得出推论,因此贝叶斯方法倾向于得到后验均值或中值,以及可信区间。
  贝叶斯估计,利用后验分布的期望(均值)作为参数的估计值的方法,前两步与最大后验概率估计相同,第3、4步如下
  3. 利用贝叶斯公式,求\thetaθ的后验概率: P ( θ ∣ D ) = P ( D ∣ θ ) P ( θ ) ∫ Θ P ( D ∣ θ ) P ( θ ) d θ P(\theta \mid D)=\frac{P(D \mid \theta) P(\theta)}{\int_{\Theta} P(D \mid \theta) P(\theta) d \theta} P(θ∣D)=∫Θ​P(D∣θ)P(θ)dθP(D∣θ)P(θ)​
  4.计算后验概率分布参数\thetaθ的期望,并求出贝叶斯估计值 θ ^ = ∫ Θ θ ⋅ P ( θ ∣ D ) d θ \hat{\theta}=\int_{\Theta} \theta \cdot P(\theta \mid D) d \theta θ^=∫Θ​θ⋅P(θ∣D)dθ
  已知似然函数和参数pp的先验分布,参数pp的后验分布为:
   P ( p ∣ X ) = P ( X ∣ p ) π ( p ) ∫ P ( X ∣ p ) π ( p ) d p = ∫ 1 B ( α , β ) p k + α − 1 ( 1 − p ) n − k + β − 1 ∫ 1 B ( α , β ) p k + α − 1 ( 1 − p ) n − k + β − 1 d p = p k + α − 1 ( 1 − p ) n − k + β − 1 ∫ p k + α − 1 ( 1 − p ) n − k + β − 1 d p = 1 B ( k + α , n − k + β ) p k + α − 1 ( 1 − p ) n − k + β − 1 ∼ Be ⁡ ( k + α , n − k + β ) \begin{aligned} P(p \mid X) &=\frac{P(X \mid p) \pi(p)}{\int P(X \mid p) \pi(p) d p} \\ &=\frac{\int \frac{1}{B(\alpha, \beta)} p^{k+\alpha-1}(1-p)^{n-k+\beta-1}}{\int \frac{1}{B(\alpha, \beta)} p^{k+\alpha-1}(1-p)^{n-k+\beta-1} d p} \\ &=\frac{p^{k+\alpha-1}(1-p)^{n-k+\beta-1}}{\int p^{k+\alpha-1}(1-p)^{n-k+\beta-1} d p} \\ &=\frac{1}{B(k+\alpha, n-k+\beta)} p^{k+\alpha-1}(1-p)^{n-k+\beta-1} \\ & \sim \operatorname{Be}(k+\alpha, n-k+\beta) \end{aligned} P(p∣X)​=∫P(X∣p)π(p)dpP(X∣p)π(p)​=∫B(α,β)1​pk+α−1(1−p)n−k+β−1dp∫B(α,β)1​pk+α−1(1−p)n−k+β−1​=∫pk+α−1(1−p)n−k+β−1dppk+α−1(1−p)n−k+β−1​=B(k+α,n−k+β)1​pk+α−1(1−p)n−k+β−1∼Be(k+α,n−k+β)​
后验概率分布的期望:
E p ( p ∣ X ) = E p ( Be ⁡ ( k + α , n − k + β ) ) = k + α ( k + α ) + ( n − k + β ) = k + α n + α + β \begin{aligned} E_{p}(p \mid X) &=E_{p}(\operatorname{Be}(k+\alpha, n-k+\beta)) \\ &=\frac{k+\alpha}{(k+\alpha)+(n-k+\beta)} \\ &=\frac{k+\alpha}{n+\alpha+\beta} \end{aligned} Ep​(p∣X)​=Ep​(Be(k+α,n−k+β))=(k+α)+(n−k+β)k+α​=n+α+βk+α​​
则以参数的后验概率分布的期望作为贝叶斯估计的参数值:
p ^ = k + α n + α + β \hat{p}=\frac{k+\alpha}{n+\alpha+\beta} p^​=n+α+βk+α​
所以贝叶斯估计得到 P ( X = 1 ) = k + α n + α + β P(X=1)=\frac{k+\alpha}{n+\alpha+\beta} P(X=1)=n+α+βk+α​

习题1.2

通过经验风险最小化推导极大似然估计。证明模型是条件概率分布,当损失函数是对数损失函数时,经验风险最小化等价于极大似然估计。
解答思路:

  1. 根据经验风险最小化定义,写出目标函数;
  2. 根据对数损失函数,对目标函数进行整理;
  3. 根据似然函数定义和极大似然估计的一般步骤(计算时需要取对数),可得到结论。
    解答步㮛:
    假设楻型的条件概率分布是 P θ ( Y ∣ X ) P_{\theta}(Y \mid X) Pθ​(Y∣X) ,样本集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x N , y N ) } D=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{N}, y_{N}\right)\right\} D={(x1​,y1​),(x2​,y2​),…,(xN​,yN​)} ,根据书中第 17 页公式 ( 1.12 ) (1.12) (1.12) ,对数损失函数为:
    L ( Y , P ( Y ∣ X ) ) = − log ⁡ P ( Y ∣ X ) L(Y, P(Y \mid X))=-\log P(Y \mid X) L(Y,P(Y∣X))=−logP(Y∣X)
    根据书中第 18 页公式(1.15),按昭经验风险最小化求最优模型就是求解最优化问题:
    min ⁡ f ∈ F 1 N ∑ i = 1 N L ( y i , f ( x i ) ) \min _{f \in \mathcal{F}} \frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right) f∈Fmin​N1​i=1∑N​L(yi​,f(xi​))
    结合上述两个式子,可得经验风险最小化函数:
    arg ⁡ min ⁡ f ∈ F 1 N ∑ i = 1 N L ( y i , f ( x i ) ) = arg ⁡ min ⁡ f ∈ F 1 N ∑ D [ − log ⁡ P ( Y ∣ X ) ] = arg ⁡ max ⁡ f ∈ F 1 N ∑ D log ⁡ P ( Y ∣ X ) = arg ⁡ max ⁡ f ∈ F 1 N log ⁡ ∏ D P ( Y ∣ X ) = 1 N arg ⁡ max ⁡ f ∈ F log ⁡ ∏ D P ( Y ∣ X ) \begin{aligned} \underset{f \in \mathcal{F}}{\arg \min } \frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right) &=\underset{f \in \mathcal{F}}{\arg \min } \frac{1}{N} \sum_{D}[-\log P(Y \mid X)] \\ &=\underset{f \in \mathcal{F}}{\arg \max } \frac{1}{N} \sum_{D} \log P(Y \mid X) \\ &=\underset{f \in \mathcal{F}}{\arg \max } \frac{1}{N} \log \prod_{D} P(Y \mid X) \\ &=\frac{1}{N} \underset{f \in \mathcal{F}}{\arg \max } \log \prod_{D} P(Y \mid X) \end{aligned} f∈Fargmin​N1​i=1∑N​L(yi​,f(xi​))​=f∈Fargmin​N1​D∑​[−logP(Y∣X)]=f∈Fargmax​N1​D∑​logP(Y∣X)=f∈Fargmax​N1​logD∏​P(Y∣X)=N1​f∈Fargmax​logD∏​P(Y∣X)​
    根据㕽然函数定义: L ( θ ) = ∏ D P θ ( Y ∣ X ) L(\theta)=\prod_{D} P_{\theta}(Y \mid X) L(θ)=∏D​Pθ​(Y∣X) ,以及极大似然估计的一般步骤,可得:
    arg ⁡ min ⁡ f ∈ F 1 N ∑ i = 1 N L ( y i , f ( x i ) ) = 1 N arg ⁡ max ⁡ f ∈ F log ⁡ L ( θ ) \underset{f \in \mathcal{F}}{\arg \min } \frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right)=\frac{1}{N} \underset{f \in \mathcal{F}}{\arg \max } \log L(\theta) f∈Fargmin​N1​i=1∑N​L(yi​,f(xi​))=N1​f∈Fargmax​logL(θ)
    即经验风险最小化等价于极大似然估计,得证。

参考: DataWhale.组队学习

统计学习与方法实战——统计学习方法概论相关推荐

  1. 统计学习第二弹--描述性统计(理论公式)

    思维导图(目录结构): 集中趋势 众数:一组数据中出现频数最多的数值,常用用Mo表示 #求众数 def Max_number(nums):res = {}for num in nums:res.set ...

  2. android 方法统计,神兵利器—Android方法耗时统计插件Mirror(上)

    1 前言 1.1 发生背景 有一天,Boss跑过来说,下次迭代我们要做蜂鸟团队App性能调优.对于一个大型成熟的App应用,在业务稳定后,往往会更加关注性能相关的表现.那么,Android App的性 ...

  3. 统计学习方法笔记_cbr:统计学习及监督学习概论

    第一章笔记,统计学习及监督学习概论 目录 第一章笔记,统计学习及监督学习概论 1.1统计学习 1.统计学习的特点 2.统计学习的对象 3.统计学习的方法 4.统计学习的研究 1.2统计学习的分类 1. ...

  4. 《统计学习方法》读书笔记第1章: 统计学习及监督学习概论

    第1章: 统计学习及监督学习概论 统计学习(statistical learning)是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科,也称为统计机器学习(statstic ...

  5. 第1章统计学习方法概论之1.1统计学习

    1统计学习(也称统计机器学习) 1.1统计学习定义: 统计学习(statistical learning)是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科. 统计学习就是计 ...

  6. 统计学习笔记(1)——统计学习方法概论

    1.统计学习 统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科,也称统计机器学习.统计学习是数据驱动的学科.统计学习是一门概率论.统计学.信息论.计算理论.最优化理 ...

  7. 机器学习——统计学习方法——第1章 统计学习及监督学习概论

    监督学习是从标注数据中学习模型的机器学习问题,是统计学习的重要组成部分. 1.1 统计学习 统计学习的特点 统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科. 特点 ...

  8. 【统计学习方法】统计学习及监督学习概论

    1.1 统计学习 1.1.1统计学习的特点 数据对统计学习很重要 学习: 如果一个系统更能够通过执行某个过程改进它的性能 1.1.2 统计学习研究对象 统计学习研究对象:数据 数据的基本假设是同类数据 ...

  9. 【统计学习】统计学习方法概论

    统计学习方法: 本笔记知识来源<统计学习方法>--李航第一章节 1 统计学习 2 监督学习 3 统计学习三要素 4 模型评估与模型选择 5 正则化与交叉验证 6 泛化能力 7 生成模型与判 ...

最新文章

  1. 如何完全安装mysql数据库_数据库经验:如何简单安装MySQL数据库
  2. Cassandra 常见错误索引
  3. kubernetes Authorization
  4. 计算沙盒中一个目录的大小
  5. OpenGL blending sort 混合排序(前后)的实例
  6. 【sklearn学习】模型网格化调参
  7. Struts2下创建自定义类型转换器(表单中日期的处理)
  8. To disable deprecation,,use _CRT_SECURE_NO_WARNINGS
  9. 20 位行业专家共话选型经验,CSDN「选型智囊团高端研讨会」圆满落幕!
  10. 高级版本 【多后台】
  11. JS 事件冒泡整理 浏览器的事件流
  12. pytorch---之halfTensor
  13. MASM32编写TcpStatC再进阶 显示PID和对应进程说明符
  14. 泡泡龙游戏开发系列教程(五)
  15. 又一恐怖技能!卡耐基梅隆大学发布超强智能体,炸翻科研圈
  16. JS禁用页面某区域不可选中文字、及修复导致行内编辑出现某单元格不可输入的问题
  17. 地震勘探原理(六)之地震组合方法原理
  18. Science上聚类算法论文——Clustering by fast search and find of density peaks翻译稿
  19. 梦之解读:如何成为牛人
  20. 限定当天的可用次数 redis

热门文章

  1. Python发邮件: ‘ascii’ codec can’t encode character u’\u201c’ in position 9
  2. Wallpaper Engine卡顿,CPU占用高,独显没有被使用的解决方法
  3. python画箱型图,并得出正常值区间,subplot用法
  4. 弱监督语义分割论文方法分类
  5. MTC系列微波治疗仪
  6. 吾爱studio3T
  7. Arithmatic项目修改总结
  8. 施瓦辛格健身全书笔记
  9. python实现“打开文件所在位置”功能
  10. CSAPP学习笔记——第九章 虚拟内存(一)内存陷阱