本文作者:合肥工业大学 管理学院 钱洋 email:1563178220@qq.com 内容可能有不到之处,欢迎交流。

未经本人允许禁止转载
#原因
今天晚上,老师在看LDA数学八卦的时候,问我一个问题,如下图所示:

这个多项式分布的参数,采用极大估计是怎么求的呢?当时想了想还真不知道,于是在网上找了资料,学习了一下,特此记录。

#公式推导
很多情况下,假定一个变量XXX有kkk个状态,其中k>2k>2k>2,每个状态假定的可能性为p1,p2,⋯ ,pkp_{1},p_{2},\cdots ,p_{k}p1​,p2​,⋯,pk​,且∑i=1kpi=1\sum _{i=1}^{k}p_{i}=1∑i=1k​pi​=1,独立进行nnn次实验,用n1,n2,⋯ ,nkn_{1},n_{2},\cdots ,n_{k}n1​,n2​,⋯,nk​表示每个状态发生的次数,发生的次数服从多项式分布:
p(n1,n2,⋯ ,nk∣p1,p2,⋯ ,pk)=n!∏i=1kni!∏i=1kpinip\left ( n_{1},n_{2},\cdots ,n_{k}|p_{1},p_{2},\cdots ,p_{k} \right )=\frac{n!}{\prod _{i=1}^{k}n_{i}!}\prod _{i=1}^{k}p_{i}^{n_{i}}p(n1​,n2​,⋯,nk​∣p1​,p2​,⋯,pk​)=∏i=1k​ni​!n!​i=1∏k​pini​​

下面采用极大似然求解:

L(p1,p2,⋯ ,pk)=log(n!∏i=1kni!∏i=1kpini)L\left ( p_{1},p_{2},\cdots ,p_{k} \right )=log\left (\frac{n!}{\prod _{i=1}^{k}n_{i}!}\prod _{i=1}^{k}p_{i}^{n_{i}} \right )L(p1​,p2​,⋯,pk​)=log(∏i=1k​ni​!n!​i=1∏k​pini​​)
=log(n!)−∑i=1klognk!+∑i=1klogpk=log\left ( n! \right )-\sum _{i=1}^{k}logn_{k}!+\sum _{i=1}^{k}logp_{k}=log(n!)−i=1∑k​lognk​!+i=1∑k​logpk​

对于有约束条件的极值求解问题可使用拉格朗日乘法:
Lagrange(p1,p2,⋯ ,pk,λ)=L(p1,p2,⋯ ,pk)−λ(∑i=1kpi−1)Lagrange\left ( p_{1},p_{2},\cdots ,p_{k},\lambda \right )=L\left ( p_{1},p_{2},\cdots ,p_{k} \right )-\lambda\left ( \sum _{i=1}^{k}p_{i}-1 \right ) Lagrange(p1​,p2​,⋯,pk​,λ)=L(p1​,p2​,⋯,pk​)−λ(i=1∑k​pi​−1)

求导(计算梯度):
∂Lagrange(p1,p2,⋯ ,pk,λ)∂pi=nipi−λ\frac{\partial Lagrange\left ( p_{1},p_{2},\cdots ,p_{k},\lambda \right )}{\partial p_{i}}=\frac{n_{i}}{p_{i} }-\lambda∂pi​∂Lagrange(p1​,p2​,⋯,pk​,λ)​=pi​ni​​−λ

进而有:
pi=niλp_{i}=\frac{n_{i}}{\lambda }pi​=λni​​

由于
∑i=1kniλ=1\sum _{i=1}^{k}\frac{n_{i}}{\lambda }=1i=1∑k​λni​​=1

得到:
λ=n\lambda=nλ=n

进而有:
pi^=nin\hat{p_{i}}=\frac{n_{i}}{n}pi​^​=nni​​

极大似然估计求解多项式分布参数相关推荐

  1. python机器学习案例系列教程——极大似然估计、EM算法

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 极大似然 极大似然(Maximum Likelihood)估计为用于已知模型的参数估计的统计学方法. 也就是求使得似然函数最大的代估参 ...

  2. 极大似然函数求解_关于极大似然估计的学习(附Matlab中mle函数的求解)

    冒泡~是新的一周辣~温故而知新一下极大似然估计(真是很不容易了) 极大似然估计的基本思想 什么是极大似然?官方上的较清楚的解释是:利用已知的样本的结果,在使用某个模型的基础上,反推最有可能导致这样结果 ...

  3. 极大似然函数求解_概率与数理统计--极大似然估计详细讲解及例题.ppt

    概率与数理统计--极大似然估计详细讲解及例题 极大似然估计 二.寻求估计量的方法 1. 矩估计法 2. 极大似然法 3. 最小二乘法 4. 贝叶斯方法 -- 这里我们主要介绍第二两种方法 . 2. 极 ...

  4. 极大似然函数求解_概率论中极大似然估计中的似然函数怎么确定 就是L(X;θ)...

    展开全部 离散型场合的似然函数 就是样本取给定的那组观测值的概率(可以由总636f707962616964757a686964616f31333431353330体的分布列直接写出). 连续型场合的似 ...

  5. 极大似然估计用计算机求解,极值分布的极大似然估计及计算机实现 - read.pdf

    极值分布的极大似然估计及计算机实现 - read 维普资讯 第3()卷 第 6期 河北师范大学学报 (自然科学版) V(l3()N0.6 21)1)6年 11月 JournalofHel,elNorm ...

  6. 3.2 参数估计:极大似然估计方法 ML

    3.2 极大似然估计方法 ML 极大似然估计方法是高斯提出,并利用该技术获得测量误差满足高斯分布的结论.假设随机变量满足概率密度函数 p(x∣θ)p(x|\mathbf{\theta})p(x∣θ), ...

  7. 机器学习算法(1)——贝叶斯估计与极大似然估计与EM算法之间的联系

    极大似然估计 在讲解极大似然估计前,需要先介绍贝叶斯分类: 贝叶斯决策: 首先来看贝叶斯分类,经典的贝叶斯公式: 其中:p(w)为先验概率,表示每种类别分布的概率:是条件概率,表示在某种类别前提下,某 ...

  8. 浅议极大似然估计(MLE)背后的思想原理

    1. 概率思想与归纳思想 0x1:归纳推理思想 所谓归纳推理思想,即是由某类事物的部分对象具有某些特征,推出该类事物的全部对象都具有这些特征的推理.抽象地来说,由个别事实概括出一般结论的推理称为归纳推 ...

  9. 相机校正、张氏标定法、极大似然估计/极大似然参数估计、牛顿法、高斯牛顿法、LM算法、sin/cos/tan/cot

    日萌社 人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新) CNN:RCNN.SPPNet.Fast RCNN.Faste ...

最新文章

  1. EGLImage与纹理
  2. python中提供怎样的内置库、可以用来创建用户界面_Python程序设计案例课堂第二篇核心技术第十章图形用户界面...
  3. 纯c语言贪吃蛇,纯C语言贪吃蛇 求助
  4. java怎么来用urlrewrite伪静态化和urlrewrite的配置
  5. 四、Netty 实现心跳机制与断线重连
  6. OpenBase关于一致性,可用性,分区容错性(CAP)分析
  7. 送给程序员:IT大神们的编程名言
  8. 编写代码注释的最佳实践
  9. matlab光束,matlab仿真光束的传输特性
  10. JavaScript核心语法——变量与常量
  11. 简单版本CRM 客户管理系统设计
  12. 1055 集体照(JAVA)
  13. 科普|掀开马甲包的 “神秘面纱”
  14. 北理工集训 Day1—Day2 (部分算法题目)
  15. blender 长度单位设置
  16. 快速填充表格中的空单元格
  17. 我死了,你还会娶别人吗
  18. Unity_物体旋转方法归纳
  19. 关于微博运营的几点思考
  20. c语言中gets()的详细用法

热门文章

  1. 适合初学者的struts简单案例
  2. 人工智能 - paddlepaddle飞桨 - 深度学习基础教程 - 线性回归
  3. ElasticSearch--Jdbc导入插件
  4. leetcode 有效的字母异位词
  5. linux查看openjdk的安装的路径
  6. 【Java】计算1+1/2+1/3+1/4....前20项
  7. [Liunx]Linux安装screenfetch
  8. “The server requested authentication method unknown to the client.”的解决方案
  9. C#LeetCode刷题-广度优先搜索
  10. 通用职责分配软件原则之7-纯虚构原则