广义线性模型(一)——指数分布族

  • 指数分布族( Linear Exponential Family)
  • 指数分布族的期望与方差证明

最近接触机器学习,学到广义线性模型。 由于广义线性模型在精算领域的运用比较广泛。顾从本篇博客开始,对广义线性模型做一个探讨,希望大家积极指出本人的问题,或参与探讨。

指数分布族( Linear Exponential Family)

响应变量 yyy 来自指数分布组,其概率密度函数为:
f(y;θ,ϕ)=exp(yθ−b(θ)ϕ+S(y,ϕ))f(y;\theta,\phi) = exp (\frac{y\theta-b(\theta)}{\phi}+S(y,\phi))f(y;θ,ϕ)=exp(ϕyθ−b(θ)​+S(y,ϕ))

θ\thetaθ: 自然参数,也是我们感兴趣的参数
ϕ\phiϕ: 尺度参数 (scale parameter)

正态分布,二项分布,伯努利分布,泊松分布,伽马分布,负二项分布,逆高斯分布都属于指数分布族。

指数分布族的期望与方差证明

指数分布族函数的期望和方差如下:
E(y)=b′(θ),Var(y)=ϕb′′(θ)E(y) = b'(\theta) , Var(y) = \phi b''(\theta)E(y)=b′(θ),Var(y)=ϕb′′(θ)
那么该如何推导出这个期望和方差呢?
我们第一直觉是直接用期望的公式
E(y)=∫0∞yf(y;θ,ϕ)dyE(y)=\int_{0}^{ \infty} yf(y;\theta,\phi) dyE(y)=∫0∞​yf(y;θ,ϕ)dy
方差为
Var(y)=E(y2)−(E(y))2Var(y) = E(y^2)-(E(y))^2Var(y)=E(y2)−(E(y))2
但是f(y,θ,ϕ)f(y,\theta,\phi)f(y,θ,ϕ) 中包含了S(y,ϕ)S(y,\phi)S(y,ϕ) 这一部分很难处理,所以换种方式,考虑矩量母函数(MGF,moment-generating function):
Mx(t)=E[etx]=∫exp(tx)f(x)dxM_{x}(t) =E[e^{tx}]=\int exp(tx)f(x)dxMx​(t)=E[etx]=∫exp(tx)f(x)dx
矩量母函数的强大之处在与它能求出n阶原点矩
M′(0)=E(x),M′′(0)=E(x2)M'(0) =E(x), M''(0) = E(x^2)M′(0)=E(x),M′′(0)=E(x2)
这个可以由麦克劳林展开式求导得到。
所以,
My(t)=E(ety)=∫exp(ty)f(y)dy=∫etyeyθ−b(θ)ϕ+S(y,ϕ)dy=∫ey(θ+ϕt)−b(θ)ϕ+S(y,ϕ)dyM_{y}(t) = E(e^{ty}) =\int exp(ty)f(y)dy =\int e^{ty}e^{\frac{y\theta-b(\theta)}{\phi}+S(y,\phi)}dy=\int e^{\frac{y(\theta+\phi t)-b(\theta)}{\phi}+S(y,\phi)}dy My​(t)=E(ety)=∫exp(ty)f(y)dy=∫etyeϕyθ−b(θ)​+S(y,ϕ)dy=∫eϕy(θ+ϕt)−b(θ)​+S(y,ϕ)dy
到这一步,我们需要凑出一个新的概率密度函数 f(y;θ+t,ϕ)f(y;\theta+t,\phi)f(y;θ+t,ϕ),因为一个概率密度函数,在其全部定义域的积分等于1(概率不会超过1!)

∫ey(θ+ϕt)−b(θ)ϕ+S(y,ϕ)dy=∫ey(θ+ϕt)−b(θ+ϕt)+b(θ+ϕt)−b(θ)ϕ+S(y,ϕ)dy=e(b(θ+ϕt)−b(θ))/ϕ∫ey(θ+ϕt)−b(θ+)ϕ+S(y,ϕ)dy\int e^{\frac{y(\theta+\phi t)-b(\theta)}{\phi}+S(y,\phi)}dy = \int e^{\frac{y(\theta+\phi t)-b(\theta+\phi t) +b(\theta+\phi t)-b(\theta)}{\phi}+S(y,\phi)}dy =e^{(b(\theta+\phi t)-b(\theta))/\phi}\int e^{\frac{y(\theta+\phi t)-b(\theta+)}{\phi}+S(y,\phi)}dy∫eϕy(θ+ϕt)−b(θ)​+S(y,ϕ)dy=∫eϕy(θ+ϕt)−b(θ+ϕt)+b(θ+ϕt)−b(θ)​+S(y,ϕ)dy=e(b(θ+ϕt)−b(θ))/ϕ∫eϕy(θ+ϕt)−b(θ+)​+S(y,ϕ)dy
因为右边积分这一块等于1, 所以最后结果就是
My(t)=E(ety)=eb(θ+ϕt)−b(θ)ϕM_{y}(t) = E(e^{ty})=e^{\frac{b(\theta+\phi t)-b(\theta)}{\phi}} My​(t)=E(ety)=eϕb(θ+ϕt)−b(θ)​
此函数在t= 0 处的导数为
M′(0)=b′(θ+ϕt)eb(θ+ϕt)−b(θ)ϕ∣t=0=b′(θ)M'(0) = b'(\theta+\phi t) e^{\frac{b(\theta+\phi t)-b(\theta)}{\phi}}\bigg|_{t = 0} =b'(\theta)M′(0)=b′(θ+ϕt)eϕb(θ+ϕt)−b(θ)​∣∣∣∣​t=0​=b′(θ)
二阶导数为
M′′(0)=ϕb′′(θ+ϕt)eb(θ+ϕt)−b(θ)ϕ∣t=0+[b′(θ+ϕt)]2eb(θ+ϕt)−b(θ)ϕ∣t=0=ϕb′′(θ)+[b′(θ)]2M''(0) = \phi b''(\theta+\phi t)e^{\frac{b(\theta+\phi t)-b(\theta)}{\phi}}\bigg|_{t = 0} +[b'(\theta+\phi t)]^2e^{\frac{b(\theta+\phi t)-b(\theta)}{\phi}}\bigg|_{t = 0} =\phi b''(\theta) +[b'(\theta)]^2M′′(0)=ϕb′′(θ+ϕt)eϕb(θ+ϕt)−b(θ)​∣∣∣∣​t=0​+[b′(θ+ϕt)]2eϕb(θ+ϕt)−b(θ)​∣∣∣∣​t=0​=ϕb′′(θ)+[b′(θ)]2
知道一阶导数和二阶导数,我们能轻松求出期望和方差:
E(y)=M′(0)=b′(θ)E(y)=M'(0) = b'(\theta)E(y)=M′(0)=b′(θ)
Var(y)=M′′(0)−(M′(0))2=ϕb′′(θ)Var(y) = M''(0) - (M'(0))^2 = \phi b''(\theta)Var(y)=M′′(0)−(M′(0))2=ϕb′′(θ)

这样我们就成功推导出了指数分布族函数的期望和方差!

广义线性模型之指数分布族期望和方差的推导相关推荐

  1. 统计学习II.7 广义线性模型1 指数分布族

    统计学习II.7 广义线性模型1 指数分布族 指数分布族的定义 指数分布族的例子 Bernoulli分布 Multinoulli分布 指数分布族的性质 指数分布族的MLE 指数分布族的贝叶斯方法 这一 ...

  2. 广义线性模型与指数分布族

    在机器学习领域,很多模型都是属于广义线性模型(Generalized Linear Model,GLM),如线性回归,逻辑回归,Softmax回归等.这篇文章广义线性模型,并由它推导出线性回归,逻辑回 ...

  3. 常用概率分布的矩母函数、特征函数以及期望、方差的推导

    常用概率分布的矩母函数.特征函数以及期望.方差的推导 一.定义与性质 二.离散型随机变量的分布 0.退化分布(Degenerate distribution) 1.离散型均匀分布(Discrete u ...

  4. 常用连续型随机变量的概率分布表(附概率密度函数全域积分等于1、期望、方差的推导与证明)

    常用离散型随机变量的内容在这里(CSDN对文章长度设了限制,我只能分成两篇博客来发布). 常用连续型随机变量的概率分布速查表 随机变量 记号 概率密度函数 分布函数 期望 方差 均匀分布 X ∼ U ...

  5. 二项分布期望和方差的推导及推广

    文章目录 一.二项分布基础内容 1.期望 2.方差 3.较为简洁的推导方法 证明1 证明2 二.二项分布的推广 一.二项分布基础内容 如果不想看复杂的推导过程,请点这里. 众所周知,两点分布的分布列为 ...

  6. 常见分布期望和方差的推导

    设有一个随机变量X, 其期望存在为E(X),方差存在为D(X) 有结论D(X)=E(X2)−[E(X)]2D(X) = E(X^2) - [E(X)]^2D(X)=E(X2)−[E(X)]2 1.二项 ...

  7. 详解广义线性模型的来龙去脉

    广义线性模型[generalize linear model]是线性模型的扩展,通过联结函数建立响应变量的数学期望值与线性组合的预测变量之间的关系.其特点是不强行改变数据的自然度量,数据可以具有非线性 ...

  8. [数学]二维对数正态分布的概率分布,期望,方差和相关系数

    最近遇到了一个联合对数正态分布的相关系数的问题,搜遍全网无果,索性自己动手.本文借鉴了这个知乎回答 首先我们有二维正态分布: X , Y ∼ B V N ( μ x , μ y , σ x 2 , σ ...

  9. 指数分布族函数与广义线性模型(Generalized Linear Models,GLM)

    目录 1 综述 2 指数分布族 3 广义线性模型 3.1 定义 3.2 为什么引入GLM 3.3 连接函数的获取 4 常见连接函数求解及对应回归 4.1 伯努利分布 > Logistics回归 ...

  10. 指数分布族 和 广义线性模型

    本节主要是我看了网易公开课上的Andrew Ng的机器学习公开课第四节所做的笔记加上自己的一些整理,将它发上来供参考,由于水平有限,可能有错误. 这节视频中,Andrew Ng主要讲了三个方面,分别是 ...

最新文章

  1. LSGO代码小组第18周复盘日志
  2. [Linux实用工具]munin-node插件配置和插件编写
  3. SpringCloud 应用在 Kubernetes 上的最佳实践 — 线上发布(可回滚)
  4. (11) Hibernate 缓存机制
  5. 与reCAPTCHA的Spring集成
  6. linux系统登陆问题,Linux之登陆问题
  7. 状态管理 - 全局状态管理工具
  8. mysql 多个实例 备份_Linux下安装Mysql多实例作为数据备份服务器实现多主到一从多实例的备份...
  9. jQuery : ddSlick 自定义select下拉框 custom drop down with images and description.
  10. 当博客系统遇上live2d后
  11. Python开发基础 day7 迭代器
  12. 可交互绘图——鼠标移到点的上方会显示该点的标签[jupyter notebook]
  13. 服务机器人占领智能安防哪些领域?
  14. 覆了天下也罢,始终不过一场繁华
  15. ngx-bootstrap学习笔记
  16. 极路由+花生壳内网版配置
  17. PPP再迎风口 相关概念股表现格外抢眼
  18. PTA平台,jmu-python-字符串-统计不同字符个数
  19. docker+nginx搭建私有云笔记leanote
  20. 为什么在做微服务设计的时候需要DDD?

热门文章

  1. PLC可编程控制实验装置及单片机综合实验台
  2. c语言char怎么用?
  3. win10隐藏登入界面时的administrator账户
  4. matlab虚拟变量,不要再稀里糊涂的做回归了:如何设置哑变量
  5. 业务分析师Business Analysist(BA)的职业发展之路
  6. matlab制作科学计算器,基于MATLAB科学计算器
  7. java助理工程师主要做什么工作,Java助理工程师面试的惨痛教训
  8. k8s笔记20--基于 K8S 的 cicd 概述
  9. WordPress实现评论显示IP归属地方法
  10. defs(defs是什么意思)