原文链接:知行流浪 https://blog.csdn.net/zengxiantao1994/article/details/72787849

以前多次接触过极大似然估计,但一直都不太明白到底什么原理,最近在看贝叶斯分类,对极大似然估计有了新的认识,总结如下:

贝叶斯决策

首先来看贝叶斯分类,我们都知道经典的贝叶斯公式:
P(w∣x)=p(x∣w)p(w)p(x)P(w|x) = \frac{p(x|w)p(w)}{p(x)}P(w∣x)=p(x)p(x∣w)p(w)​
其中:p(w):为先验概率,表示每种类别分布的概率;P(x|w):类条件概率,表示在某种类别前提下,某事发生的概率;而P(W|x)为后验概率,表示某事发生了,并且它属于某一类别的概率,有了这个后验概率,我们就可以对样本进行分类。后验概率越大,说明某事物属于这个类别的可能性越大,我们越有理由把它归到这个类别下。
    我们来看一个直观的例子:已知:在夏季,某公园男性穿凉鞋的概率为1/2,女性穿凉鞋的概率为2/3,并且该公园中男女比例通常为2:1,问题:若你在公园中随机遇到一个穿凉鞋的人,请问他的性别为男性或女性的概率分别为多少?
    从问题看,就是上面讲的,某事发生了,它属于某一类别的概率是多少?即后验概率。

设:w1w_1w1​=男性, w2w_2w2​=女性, xxx=穿凉鞋
由已知可得: 先验概率:p(w1)=23p(w_1)=\frac{2}{3}p(w1​)=32​, p(w2)=13p(w_2)=\frac{1}{3}p(w2​)=31​
        类条件概率:p(x∣w1)=12p(x|w_1)=\frac{1}{2}p(x∣w1​)=21​,p(x∣w1)=23p(x|w_1)=\frac{2}{3}p(x∣w1​)=32​
男性和女性穿凉鞋相互独立,所以
p(x)=p(x∣w1)p(w1)+p(x∣w2)p(w2)=59p(x) = p(x|w_1)p(w_1)+ p(x|w_2)p(w_2)=\frac{5}{9}p(x)=p(x∣w1​)p(w1​)+p(x∣w2​)p(w2​)=95​
若只考虑分类问题,只需要比较后验概率的大小,取值并不重要。
由贝叶斯公式算出:
P(w1∣x)=p(x∣w1)p(w1)p(x)P(w_1|x) = \frac{p(x|w_1)p(w_1)}{p(x)}P(w1​∣x)=p(x)p(x∣w1​)p(w1​)​
P(w2∣x)=p(x∣w2)p(w2)p(x)P(w_2|x) = \frac{p(x|w_2)p(w_2)}{p(x)}P(w2​∣x)=p(x)p(x∣w2​)p(w2​)​

问题引出

  但是在实际问题中并不都是这样幸运的,我们能获得的数据可能只有有限数目的样本数据,而先验概率p(wi)p(w_i)p(wi​)和类条件概率(各类的总体分布)p(x∣wi)p(x|w_i)p(x∣wi​)都是未知的。根据仅有的样本数据进行分类时,一种可行的办法是我们需要先对先验概率和类条件概率进行估计,然后再套用贝叶斯分类器。

   先验概率的估计较简单,1、每个样本所属的自然状态都是已知的(有监督学习);2、依靠经验;3、用训练样本中各类出现的频率估计。
  类条件概率的估计(非常难),原因包括:概率密度函数包含了一个随机变量的全部信息;样本数据可能不多;特征向量x的维度可能很大等等。总之要直接估计类条件概率的密度函数很难。解决的办法就是,把估计完全未知的概率密度p(x∣wi)p(x|w_i)p(x∣wi​)转化为估计参数。这里就将概率密度估计问题转化为参数估计问题,极大似然估计就是一种参数估计方法。当然了,概率密度函数的选取很重要,模型正确,在样本区域无穷时,我们会得到较准确的估计值,如果模型都错了,那估计半天的参数,肯定也没啥意义了。

重要前提

上面说到,参数估计问题只是实际问题求解过程中的一种简化方法(由于直接估计类条件概率密度函数很困难)。所以能够使用极大似然估计方法的样本必须需要满足一些前提假设

重要前提:训练样本的分布能代表样本的真实分布。每个样本集中的样本都是所谓独立同分布的随机变量 (iid条件),且有充分的训练样本。

极大似然估计

极大似然估计的原理,用一张图片来说明,如下图所示:

总结起来,最大似然估计的目的就是:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。

原理:极大似然估计是建立在极大似然原理的基础上的一个统计方法,是概率论在统计学中的应用。极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。通过若干次试验,观察其结果,利用试验结果得到某个参数值能够使样本出现的概率为最大,则称为极大似然估计。
由于样本集中的样本都是独立同分布,可以只考虑一类样本集D,来估计参数向量θ。记已知的样本集为:
D={x1,x2,x3,...,xN}D=\{x_1, x_2, x_3, ...,x_N\}D={x1​,x2​,x3​,...,xN​}

似然函数(linkehood function):联合概率密度函数p(D∣θ)p(D|\theta)p(D∣θ)称为相对于{x1,x2,x3,...,xN}\{x_1, x_2, x_3, ...,x_N\}{x1​,x2​,x3​,...,xN​}的θ的似然函数。
l(θ)=p(D∣θ)=p(x1,x2,x3,...,xN∣θ)=∏i=1Np(xi∣θ)l(\theta) = p(D|\theta) = p(x_1, x_2, x_3, ...,x_N|\theta) = \prod_{i=1}^Np(x_i|\theta)l(θ)=p(D∣θ)=p(x1​,x2​,x3​,...,xN​∣θ)=i=1∏N​p(xi​∣θ)

如果θ^\hat{\theta}θ^是参数空间中能使似然函数l(θ)l(\theta)l(θ)最大的θ值,则θ^\hat{\theta}θ^应该是“最可能”的参数值,那么θ^\hat{\theta}θ^就是θ\thetaθ的极大似然估计量。它是样本集的函数,记作:
θ^=d(x1,x2,x3,...,xN)=d(D)\hat{\theta}=d(x_1, x_2, x_3, ...,x_N)=d(D)θ^=d(x1​,x2​,x3​,...,xN​)=d(D)
θ^(x1,x2,x3,...,xN)\hat{\theta}(x_1, x_2, x_3, ...,x_N)θ^(x1​,x2​,x3​,...,xN​)叫做极大似然函数估计值

求解极大似然函数

极大似然估计:求使得出现该组样本的概率最大的θ值。

实际中为了便于分析,定义了对数似然函数:

1. 未知参数只有一个(θ为标量)

在似然函数满足连续、可微的正则条件下,极大似然估计量是下面微分方程的解:

2.未知参数有多个(θ为向量)

则θ可表示为具有S个分量的未知向量:

记梯度算子:

若似然函数满足连续可导的条件,则最大似然估计量就是如下方程的解。

方程的解只是一个估计值,只有在样本数趋于无限多的时候,它才会接近于真实值。

极大似然估计的例子

例1:设样本服从正态分布,则似然函数为:

它的对数:

求导,得方程组:

联合解得:

似然方程有唯一解:,而且它一定是最大值点,这是因为当时,非负函数。于是U和的极大似然估计为

例2:设样本服从均匀分布[a, b]。则X的概率密度函数:

对样本

很显然,L(a,b)作为a和b的二元函数是不连续的,这时不能用导数来求解。而必须从极大似然估计的定义出发,求L(a,b)的最大值,为使L(a,b)达到最大,b-a应该尽可能地小,但b又不能小于,否则,L(a,b)=0。类似地a不能大过,因此,a和b的极大似然估计:

总结

求最大似然估计量的一般步骤:

(1)写出似然函数;

(2)对似然函数取对数,并整理;

(3)求导数;

(4)解似然方程。

最大似然估计的特点:

1.比其他估计方法更加简单;

2.收敛性:无偏或者渐近无偏,当样本数目增加时,收敛性质会更好;

3.如果假设的类条件概率模型正确,则通常能获得较好的结果。但如果假设模型出现偏差,将导致非常差的估计结果。

正态分布ML估计的Matlab实例:点击打开链接

【转载】极大似然估计相关推荐

  1. LR为什么用极大似然估计,损失函数为什么是log损失函数(交叉熵)

    首先,逻辑回归是一个概率模型,不管x取什么值,最后模型的输出也是固定在(0,1)之间,这样就可以代表x取某个值时y是1的概率 这里边的参数就是θ,我们估计参数的时候常用的就是极大似然估计,为什么呢?可 ...

  2. 似然函数的意义与极大似然估计

    什么是概率? 简单来说,概率是一个函数,定义域是样本空间,满足非负性,规范性,可列可加性. 严格的公理化定义如下: 概率可以做什么?统计又可以做什么? 什么是先验概率,后验概率,似然? 先验概率:根据 ...

  3. 干货 | 一文搞懂极大似然估计

    极大似然估计,通俗理解来说,就是在假定整体模型分布已知,利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值! 换句话说,极大似然估计提供了一种给定观察数据来评估模型参数 ...

  4. 零基础掌握极大似然估计

    零基础掌握极大似然估计 https://mp.weixin.qq.com/s/v98qGCz_qN_73hnYKrCQFw 1极大似然估计 极大似然估计,通俗理解来说,就是在假定整体模型分布已知,利用 ...

  5. 极大似然估计_计量经济学 | 极大似然估计

    写在前面:本文写作于被新冠病毒 (COVID-19) 笼罩下的英国.前段时间本人的恩师.苏格兰老爷爷.英国伯明翰大学Emeritus讲席教授Peter Sinclair确诊新冠病毒,实乃不幸.在此祝P ...

  6. 7.2 极大似然估计

    7.2 极大似然估计 ​ 估计类条件概率的一种常用策略是先假设其具有某种确定的概率分布形式,然后再基于训练样本对概率分布的参数进行估计,具体的说,记关于类别C的类条件概率为P(X|C),假设P(X|C ...

  7. 【数学基础】参数估计之极大似然估计

    背景 先来看看几个小例子: 猎人师傅和徒弟一同去打猎,遇到一只兔子,师傅和徒弟同时放枪,兔子被击中一枪,那么是师傅打中的,还是徒弟打中的? 一个袋子中总共有黑白两种颜色100个球,其中一种颜色90个, ...

  8. 伽马分布极大似然估计_一文通俗解释极大似然估计

    我们都知道机器学习的大致流程是通过建立一个合理的模型学习现有数据集,然后通过该模型去完成特定的任务.其中每个模型都包含自身的一组特定参数,而这组参数决定着模型的本身.但这里存在一个很关键的一个问题,就 ...

  9. 机器学习笔记1.矩估计、极大似然估计。

    1.矩估计 1.1矩估计思想: 矩估计是基于一种简单的"替换"思想,即用样本矩估计总体矩 1.2矩估计理论: 矩估计的理论依据就是基于大数定律的,大数定律语言化表述为:当总体的k阶 ...

最新文章

  1. python基础教程第三版豆瓣-1024,程序媛/猿请查收!
  2. 全国计算机二级qq闪退,电脑上QQ闪退怎么回事?各个系统版本电脑QQ闪退现象的解决方法介绍...
  3. 4条实用小建议,送给初入NLP领域的你
  4. 使用Maven设置您的应用服务器
  5. 手机web网页制作的认识(有关meta标签)
  6. matlab与maple互联,Matlab,Maple和Mathematica三款主流科学计算软件的互操作
  7. API设计原则(觉得太合适,转发做记录)
  8. 关于生成静态页--终极解决方案
  9. java可以运行奥android报错,添加java8支持时Android studio错误
  10. 去掉windows10“更新并关机”
  11. 2019美赛B题PSO算法
  12. Revit工作时处理CAD图层的5种方法,快get起来
  13. 使用com.alibaba.druid.filter.config.ConfigTools进行加密和解密工具类
  14. 数控弯管机xyz转换ybc的算法_全自动数控弯管机程序功能解析
  15. 银行手机APP软件做性能测试吗,浅谈银行开放平台应用系统性能测试
  16. python根须系统斜杠_尝试在Win10系统搭建esp32编译系统.下
  17. 无公网IP远程黑群晖【内网穿透】
  18. 三星Samsung 笔记本 改WIN7 BIOS 设置详解
  19. 输入关键词自动生成文章-免费自动输入关键词自动生成文章器
  20. 记住 逆境并不是尽头 而是更好的结果的一个转角而已。

热门文章

  1. 国内最值得关注的10家人工智能语音识别公司
  2. Python——函数练习题
  3. k8s 命令 重启_k8s常用命令
  4. 基于J2EE架构的在线考试系统-Java(报告+源码+PPT
  5. 2011年linux数据库的android在线分享
  6. DSP程序空间和数字空间的理解
  7. 安卓实战小程序--篮球计数器
  8. 今天试着用原生axios以及jquery下的axios请求数据
  9. 口腔医院管理系统 | 口腔医院小程序 | 数字化门店转型
  10. Python 实现最大回撤