在机器学习的算法中,经常看到极大似然估计的身影,不接触数学一段时间的我,对它又熟悉又陌生,还是决定系统的写一下极大似然估计的思想。
  极大似然估计法是求点估计的常用方法之一。极大似然估计法是建立在已知总体分部形式上的估计方法。

1. 基本思想

思想:在给定样本观察值的条件下,用使这组样本观察值出现概率最大的参数 θ 的估计。
可能仅凭一句话还不好理解,下面我们看一个例子

  设一个口袋中装有许多个白球和黑球,但不知道是黑球多还是白球多,只知道两种颜色球的数目之比是1:3。从袋中任取一球,取得黑球的概率 θ 是 1/4 或 3/4 。试通过实验来推断抽到黑球的概率 θ 取 1/4 或 3/4 哪个值更合理。
  
  总体X服从两点分布B(1,θ),参数空间为Θ = {1/4 , 3/4},θ ∈ Θ。采用有放回抽样方式,从袋中抽取n次,每次抽取一个球,抽到黑球记为1,否则记为0,得到样本 X1,X2,…,Xn的观察值 x1,x2,…,xn,其发生的概率为

p(x1,x2,...,xn ; θ) = θ^k *(1 - θ)^(n - k) 其中 k = x1 + x2 + ... + xn。
为了解释极大似然估计法的原理,仅考虑n = 3的情形。给定观察值x1,x2,x3,对 θ = 1/4 和 3/4 ,分别计算样本联合分布列p(k ;θ)= p(x1,x2,x3;θ),其结果如下:
表n = 3时样本联合分布列

k 0 1 2 3
p(1/4;θ) 27/64 9/64 3/64 1/64
p(3/4;θ) 1/64 3/64 9/64 27/64

  由表可知,若抽取的3个球中观察到黑球个数k=0,当θ = 1/4 时,p(0;1/4) = 27/64;而当θ = 3/4 时,p(0;3/4) =1/64。显然 p(0;1/4)> p(0;3/4),这表明使 k = 0的样本x1,x2,x3来自参数 θ = 1/4 的总体要比来自 θ = 3/4的总体的可能性更大。因而,取1/4作为 θ的估计比取3/4作为θ的估计更合理。类似地,当k=1时,同样取1/4作为θ的估计比取3/4更合理。而当k=2或3时,取3/4作为θ的估计比取1/4更合理。综上所述,参数θ的合理估计为:

  上述估计参数θ的基本思想是:对样本观察值x1,x2,…,xn,选取最优θ(x1,x2,…,xn)使得

成立,即在给定样本观察值的条件下,用使这组样本观察值出现概率最大参数 θ 的估计。

  既然我们知道极大似然估计是寻找发生概率最大所对应的θ值,我们就看一下求解形式吧!
  假设总体分布族为{p(x;θ):θ ∈ Θ},其中p(x;θ)为概率分布列密度函数为f(x;θ)。x1,x2,…,xn是简单样本,则样本的联合概率分布为:

① 离散型随机变量


② 连续型随机变量

当样本x1,x2,…,xn给定时,p(x1,x2,…,xn;θ)是参数θ的函数,称这个函数为似然函数,记为L(θ;x1,x2,…,xn),或L(θ;x),或L(θ),即

2. 求解似然函数最大值的依据

  最大值未必存在,但上确界总是存在,当最大值存在时,上确界和最大值重合。求参数θ的极大似然估计,就是求使似然函数L(θ)在参数空间Θ上取得上确界的
  由于lnx是x的单调增函数,因为Ln L(θ)与L(θ)在相同的点上取得上确界,成Ln L(θ)为对数似然函数。特别的,当Ln L(θ)在Θ上存在连续偏导数,并在Θ内取得最大值时,θ的极大似然函数必满足方程组:

称它为似然方程组。如果似然方程组的解使得上式成立,则就是参数θ的极大似然估计

3. 求解步骤

基于对似然函数L(θ)形式(一般为连乘式且各因式>0)的考虑,求θ的最大似然估计的一般步骤如下:

(1)写出似然函数
总体X为离散型时:

总体X为连续型时:

(2)对似然函数两边取对数有
总体X为离散型时:

总体X为连续型时:

(3)对Ln L(θ)求偏导等于0:

此方程为对数似然方程。解对数似然方程所得,即为未知参数 的最大似然估计值。

例题:

设总体X~N(μ,σ2),μ,σ为未知参数,X1,X2…,Xn是来自总体X的样本,X1,X2…,Xn是对应的样本值,求μ与σ2的最大似然估计值。

:X的概率密度为

可得似然函数如下:

取对数,得




解得


故μ和σ的最大似然估计量分别为

极大似然估计法的理解和用途相关推荐

  1. “损失函数”是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”

    [本文内容是自对视频:"损失函数"是如何设计出来的?的整理.补充和修正] 在大多数课程,尤其是帮助大家快速掌握深度学习的课程,损失函数似乎并不是一个需要额外关心的问题.因为它往往都 ...

  2. 【白话理解神经网络中的“损失函数”——最小二乘法和极大似然估计法】

    目录 写在前面的话 理解损失函数 最小二乘法 最大似然估计法(统计方法) 写在前面的话 "损失函数"是如何设计出来的?直观理解"最小二乘法"和"极大似 ...

  3. 机器学习数学原理(1)——极大似然估计法

    机器学习数学原理(1)--极大似然估计法 事实上机器学习的大部分算法都是以数理统计和概率论为理论基础构建的.笔者在学习机器学习的过程中,意识到其实机器学习中的很多假设背后都是有着数学原理支撑的,从而使 ...

  4. (一)极大似然估计法原理讲解

    极大似然估计法通过事实来估计参数 举例: 现在我们进行扔硬币实验,假设但是我们不知道出现花的概率,我们怎么去估计这个概率呢?即如何估计出现花的这个参数的概率? 极大似然估计法就是通过很多次实验,进行这 ...

  5. 【R语言-20行代码】牛顿迭代法求伽马函数极大似然估计法的参数估计

    简述 研究了下计算公式,简化了一下,用r语言实现了. 算法解释 牛顿迭代法 xk+1=xk−f(xk)f′(xk)x_{k+1} = x_k - \frac{f(x_k)}{f'(x_k)}xk+1​ ...

  6. 如何通俗地理解概率论中的「极大似然估计法」?

    我们假设硬币有两面,一面是"花",一面是"字". 一般来说,我们都觉得硬币是公平的,也就是"花"和"字"出现的概率是差不 ...

  7. 极大似然估计法的原理和方法

    1.极大似然估计的理解与应用 2.深入浅出最大似然估计(Maximum Likelihood Estimation) 3.极大似然估计的原理和方法--强烈推荐,PPT其实讲的已经很清楚了 4.极大似然 ...

  8. 透彻理解机器学习中极大似然估计MLE的原理(附3D可视化代码)

    文章目录 相关资料 一.什么是概率,什么是似然 二.极大似然估计 Maximum Likelihood Estimation (MLE) 的含义 2.1 机器学习中的极大化似然函数 2.2 极大似然估 ...

  9. 干货 | 一文搞懂极大似然估计

    极大似然估计,通俗理解来说,就是在假定整体模型分布已知,利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值! 换句话说,极大似然估计提供了一种给定观察数据来评估模型参数 ...

最新文章

  1. python调试神器_介绍一款调试Python的神器
  2. POJ 2186 Popular Cows(Tarjan)
  3. windows ad 域下配置L2TP ***服务器 企业防火墙端口配置
  4. mybatis开启二级缓存和懒加载,类型别名,类都简称
  5. 5.2 C++中的原子操作和原子类型
  6. 机器学习基础 | 有监督学习篇
  7. [转]对企业管理和团队的理解
  8. 华尔街(Wall Street)与先锋集团(Vanguard )之间的战争
  9. 越狱团队否认收钱并中止与太极合作
  10. shell的几种常用工具
  11. 办公自动化和计算机应用哪个好,高级办公自动化和计算机二级VF哪个更好?两个都考有必要吗?...
  12. p2p网络中的NAT穿透
  13. EasyAR4.0稀疏空间地图室内导航
  14. 微信红包服务器卡死,东大跨年红包记--并发案例分析
  15. 解决 PHP http_build_query() 预期得到 not 却得到 ¬ 的问题
  16. 简单学JAVA-Java学习方法-费曼学习法
  17. 在线客服服务干货:如何与客户进行有效沟通?
  18. aspnet172海派电影视频点播分享影评网站
  19. 2023前端求职经历回顾及面试题总结
  20. Android产品研发(十)--尽量不使用静态变量保存数据

热门文章

  1. Bootstrap4 导航active状态切换
  2. _012_IDEA_idea 创建工作空间(空项目) 项目组
  3. php 调用微信支付的时间戳,前端调用微信支付接口
  4. 波士顿犯罪数据时空分析及可视化
  5. pycharm和Anaconda强强联手
  6. pytecplot做图命令总结
  7. Tet3在前脑神经元中对抗焦虑
  8. uni-app watch事件监听三种用法
  9. 前端三件套系例之CSS——响应式布局
  10. 2022年总结:道阻且长,行则将至