单参的情况

给定观察集D=(F i ,e i ) \mathcal{D}=(F_i,e_i),估计真实的F true  F_{\textrm{true}}:

P(D i |F true )=12πe 2 i  − − − −  √  exp[−(F i −F true ) 2 2e 2 i   ] 

P(\mathcal{D}_i|F_{\textrm{true}})=\frac1{\sqrt{2\pi e_i^2}}\exp\begin{bmatrix}-\frac{(F_i-F_{\textrm{true}})^2}{2e_i^2}\end{bmatrix}

将P(D i |F true ) P(\mathcal{D}_i|F_{\textrm{true}})这一条件概率(conditional probability)称为给定F true  F_{\textrm{true}}(参数)下的样本D i  \mathcal{D}_i发生的概率,根据上述等式其等于以F true  F_\textrm{true}为均值,以e i  e_i为标准差的正太分布。

在整个数据集D \mathcal{D}(或者the entire set of measurements,观察集)上,构建似然函数(likelihood function \textbf{likelihood function}):

L(D|F true )=∏ i=1 N P(D i |F true )=∏ i=1 N 12πe 2 i  − − − −  √  exp[−12 (F i −F true ) 2 2e 2 i   ] 

\mathcal{L}(\mathcal{D}|F_{\textrm{true}})=\prod_{i=1}^NP(\mathcal{D}_i|F_{\textrm{true}})=\prod_{i=1}^N\frac1{\sqrt{2\pi e_i^2}}\exp\begin{bmatrix}-\frac12\frac{(F_i-F_\textrm{true})^2}{2e_i^2}\end{bmatrix}

为简化计算,对数形式,也即对数似然(log_likelihood function)如下:

logL=−12 ∑ i=1 N [log(2πe 2 i )+(F i −F true ) 2 2e 2 i   ] 

\log\,\mathcal{L}=-\frac12\sum_{i=1}^N\begin{bmatrix} \log(2\pi e_i^2)+\frac{(F_i-F_\textrm{true})^2}{2e_i^2} \end{bmatrix}

等式两边对F true  F_\textrm{true}求偏导,dLdF true  =0 \frac{d\,\mathcal{L}}{d\,F_\textrm{true}}=0:

F est =∑w i F i ∑w i  =w T F∥w∥ ℓ 1   w i =1e 2 i  σ est =(∑ i=1 N w i ) −1/2  

F_\textrm{est}=\frac{\sum w_iF_i}{\sum w_i}=\frac{w^TF}{\|w\|_{\ell_1}}\\w_i=\frac1{e_i^2}\\\sigma_\textrm{est}=(\sum_{i=1}^Nw_i)^{-1/2}

在e i  e_i相等时:

F est =∑ N i=1 F i N  

F_\textrm{est}=\frac{\sum_{i=1}^N F_i}N

def log_likelihood(theta, F, e):return -.5*np.sum(np.log(2*np.pi*e**2)+(F-theta[0])**2/(e**2))

双参的情况

F true ∼12πσ 2  − − − −  √  exp[−12 (F−μ) 2 σ 2   ] 

F_\textrm{true}\sim\frac1{\sqrt{2\pi \sigma^2}}\exp\begin{bmatrix}-\frac12\frac{(F-\mu)^2}{\sigma^2}\end{bmatrix}

构建似然函数:

L(D|θ)=∏ i=1 N 12π(σ 2 +e 2 i ) − − − − − − − − − −  √  exp[−12 (F i −μ) 2 σ 2 +e 2 i   ] 

\mathcal{L}(\mathcal{D}|\theta)=\prod_{i=1}^N\frac1{\sqrt{2\pi (\sigma^2+e_i^2)}}\exp\begin{bmatrix}-\frac12\frac{(F_i-\mu)^2}{\sigma^2+e_i^2}\end{bmatrix}

同理,对数似然形式为:

logL(D|θ)=−12 ∑[log(2π(σ 2 +e 2 i ))+(F i −μ) 2 σ 2 +e 2 i   ] 

\log\,\mathcal{L}(\mathcal{D}|\theta)=-\frac12\sum\begin{bmatrix}\log (2\pi(\sigma^2+e_i^2))+\frac{(F_i-\mu)^2}{\sigma^2+e_i^2}\end{bmatrix}

接下来的处理和单参的情况类似(取对数,求关于μ \mu和σ \sigma的偏导,置0,解析解(analytical solution,closed form solution))。

μ est =∑w i F i ∑w i  w i =1σ 2 +e 2 i   

\mu_\textrm{est}=\frac{\sum w_iF_i}{\sum w_i}\\w_i=\frac1{\sigma^2+e_i^2}

def log_likelihood(theta, F, e):return -.5*np.sum(np.log(2*np.pi*(theta[1]**2+e**2))+(F-theta[0])**2/(theta[1]**2+e**2))

此时,我们可以使用scipy下的最优化函数,一般是最小化目标函数(objective function),所以:

from scipy import optimizedef neg_log_likelihood(theta, F, e):return -log_likelihood(theta, F, e)theta_gauss = [900, 5]
theta_est = optimize.fmin(func=neg_log_likelihood, x0=theta_gauss, args=(F, e))

最大似然估计(MLE)的一些公式与定理(python实践)相关推荐

  1. 最大似然估计(MLE),最大后验概率估计(MAP),贝叶斯估计入门讲解

    已知数据X,去拟合某个概率模型的参数θ,是最基本的机器学习过程. 本文将入门讲解3个最基本的方法:最大似然估计(Maximum Likelihood Estimation,简称MLE),最大后验概率估 ...

  2. 最大似然估计(MLE)与最小二乘估计(LSE)的区别

    最大似然估计与最小二乘估计的区别 标签(空格分隔): 概率论与数理统计 最小二乘估计 对于最小二乘估计来说,最合理的参数估计量应该使得模型能最好地拟合样本数据,也就是估计值与观测值之差的平方和最小. ...

  3. 最大似然估计 (MLE) 最大后验概率(MAP)

    文章转载自:Leavingseason http://www.cnblogs.com/sylvanas2012/p/5058065.html 1) 最大似然估计 MLE 给定一堆数据,假如我们知道它是 ...

  4. 最大似然估计(MLE:样本观测总体参数)是如何工作的?

    1. MLE的意义:样本估计总体分布参数 假定一个事件的观测样本服从如下分布,我们如何确定总体数据的分布模型? 首先应该想到是建立线性回归模型,然而由于该变量不是正态分布的,而且是不对称的,因此不符合 ...

  5. 验后方差估计python_最大似然估计 (MLE) 最大后验概率(MAP)

    1) 最大似然估计 MLE 给定一堆数据,假如我们知道它是从某一种分布中随机取出来的,可是我们并不知道这个分布具体的参,即"模型已定,参数未知". 例如,我们知道这个分布是正态分布 ...

  6. 机器学习数学基础-最大似然估计与贝叶斯法则

    以下文章摘录自 <机器学习观止--核心原理与实践> 京东: https://item.jd.com/13166960.html 当当:http://product.dangdang.com ...

  7. 有意思的概率——似然值似然函数及最大似然估计讲解

    该系列博客旨在对概率论和统计学的相关概念和应用进行一个整体的梳理,既记录自己的学习过程,也可以为大家提供一个参考. 这篇博客主要讲解概率论和统计学中经常涉及到的,不是很好理解的一个概念--似然(Lik ...

  8. 详解最大似然估计、最大后验概率估计及贝叶斯公式

    最大似然估计(Maximum likelihood estimation, 简称MLE)和最大后验概率估计(Maximum a posteriori estimation, 简称MAP)是很常用的两种 ...

  9. 独家 | 一文读懂最大似然估计(附R代码)

    作者:阿尼·辛格 翻译: 陈之炎 校对:丁楠雅 本文约4200字,建议阅读10+分钟. 本文将研究MLE是如何工作的,以及它如何用于确定具有任何分布的模型的系数. 简介 解释模型如何工作是数据科学中最 ...

  10. 贝叶斯公式的对数似然函数_贝叶斯估计、最大似然估计、最大后验概率估计

    贝叶斯估计.最大似然估计(MLE).最大后验概率估计(MAP)这几个概念在机器学习和深度学习中经常碰到,读文章的时候还感觉挺明白,但独立思考时经常会傻傻分不清楚(

最新文章

  1. 瑞星杀毒软件所有监控已禁用!
  2. 是时候取消Scrum的产品负责人角色了吗?
  3. SAP实施的难点在哪里?
  4. getDimension,getDimensionPixelOffset和getDimensionPixelSize的一点说明
  5. Authorization object的where used列表功能,位于事务码SUIM
  6. java.lang.IllegalArgumentException: Could not resolve placeholder ‘stu.age‘ in value “${stu.age}
  7. 太极图正确画法_认识道教太极图,了解正规画法
  8. 一步一步学Linq to sql(十):分层构架的例子
  9. Linux中进程正常退出return和exit()的区别
  10. 大型网站架构系列:20本技术书籍推荐
  11. 《Android 面试指南》
  12. dpkg检查某个应用是否已安装
  13. labview变量和C语言,LabVIEW
  14. 中国电信物联网平台入门学习笔记2: DOME程序分析
  15. 泛微e-Bridge未授权文件读取漏洞复现
  16. 软件自动升级解决方案(一)
  17. linux系统根文件系统构建
  18. 操作系统原理课程设计任务书
  19. Mysq查询性能调优
  20. 怎么把不能编辑的qlv转换成mp4

热门文章

  1. 查看linux电脑内存free命令,Linux free命令查看内存状态
  2. linux 文件句柄 sock,linux socket句柄
  3. 虚拟机centos7 git clone特别慢_从文件生命周期看GIT的提交流程
  4. Akka网络编程基本介绍
  5. oracle全角括号忽略,Oracle中SQL查询语句日文不区分全角/半角
  6. 11300001数据集配置错误_Power BI 中的数据刷新(二)
  7. kuka的备选安装包有什么功能_机械臂的软浮动功能
  8. LeetCode 97. 交错字符串(动态规划)
  9. gstreamer的rtsp推流(笔记)
  10. string转Char*( error C2440: '=' : cannot convert from 'const char *' to 'char *')