正态分布下贝叶斯决策的特例(一)
正态分布下贝叶斯决策的特例(一)
前导知识:【正态分布下贝叶斯决策的引入】
现讨论如下情况:Σi=σ2I\Sigma_i=\sigma^2 IΣi=σ2I,即:各类协方差矩阵相等且为对角阵(类内各特征间相互独立)。
1. 先验概率P(wi)P(w_i)P(wi)与P(wj)P(w_j)P(wj)不相等
此时各类的协方差矩阵为:
Σi=[σ2...0.........0...σ2]d×d(1)\Sigma_i = \left[ \begin{array}{cc} \sigma^2 & ... & 0 \\ ... & ... & ... \\ 0 & ... & \sigma^2 \end{array} \right ]_{d \times d} \tag 1 Σi=⎣⎡σ2...0.........0...σ2⎦⎤d×d(1)
从几何上来看,相当于各类样本落入以μi\mu_iμi为中心的同样大小的一些超球体内。由于:
∣Σi∣=σ2d(2)|\Sigma_i|=\sigma^{2d} \tag 2 ∣Σi∣=σ2d(2)
Σi−1=1σ2I(3)\Sigma_i^{-1}=\frac{1}{\sigma^2} I \tag 3 Σi−1=σ21I(3)
将式(2)(2)(2),(3)(3)(3)代入判别函数中:
gi(x)=−12σ2(x−μi)TΣi−1(x−μi)+lnP(wi)+−d2ln2π−12lnσ2d(4)g_i(x)=-\frac{1}{2\sigma^2}(x-\mu_i)^T\Sigma_i^{-1}(x-\mu_i)+\ln P(w_i) + -\frac{d}{2}\ln 2\pi-\frac{1}{2} \ln\sigma^{2d} \tag 4 gi(x)=−2σ21(x−μi)TΣi−1(x−μi)+lnP(wi)+−2dln2π−21lnσ2d(4)
由于(4)(4)(4)中,第3,4项与iii无关联,故可简化为:
gi(x)=−12σ2(x−μi)TΣi−1(x−μi)+lnP(wi)(5)g_i(x)=-\frac{1}{2\sigma^2}(x-\mu_i)^T\Sigma_i^{-1}(x-\mu_i)+\ln P(w_i) \tag 5 gi(x)=−2σ21(x−μi)TΣi−1(x−μi)+lnP(wi)(5)
(5)(5)(5)中:
(x−μi)T(x−μi)=∣∣x−μi∣∣2=∑j=1d(xj−μij)2,i=1,...,c(6)(x-\mu_i)^T(x-\mu_i)=||x-\mu_i||^2=\sum_{j=1}^{d} (x_j-\mu_{ij})^2,i=1,...,c \tag 6 (x−μi)T(x−μi)=∣∣x−μi∣∣2=j=1∑d(xj−μij)2,i=1,...,c(6)
为由xxx到类wiw_iwi的均值向量μi\mu_iμi的欧氏距离的平方。
2. P(wi)=P(wj)P(w_i)=P(w_j)P(wi)=P(wj)时的情况(最小距离分类器)
如ccc类的先验概率P(wi),i=1,...,cP(w_i),i=1,...,cP(wi),i=1,...,c都相等,则可以忽略式(5)(5)(5)中的ln(P(wi)\ln(P(w_i)ln(P(wi)项。
在此背景下,若要对样本xxx进行分类,只要计算xxx到各类的均值向量μi\mu_iμi的欧式距离平方∣∣x−μi∣∣2||x-\mu_i||^2∣∣x−μi∣∣2,然后把xxx归于具有mini=1,...,c∣∣x−μi∣∣2min_{i=1,...,c} \ ||x-\mu_i||^2mini=1,...,c ∣∣x−μi∣∣2的类。这种分类即称为最小距离分类器。
(5)(5)(5)是xxx的二次函数,但是xTxx^TxxTx与iii无关,故可以忽略,则判别函数为:
gi(x)=−12σ2(−2μiTx+μiTμi)+lnP(wi)=wiTx+wi0(7)g_i(x)=-\frac{1}{2\sigma^2} (-2\mu_i^Tx+\mu_i^T\mu_i)+\ln P(w_i) = w_i^Tx + w_{i0} \tag 7 gi(x)=−2σ21(−2μiTx+μiTμi)+lnP(wi)=wiTx+wi0(7)
其中:
wi=1σ2μi(8)w_i = \frac{1}{\sigma^2} \mu_i \tag 8 wi=σ21μi(8)
wi0=−12σ2μiTμi+lnP(wi)(9)w_{i0}=-\frac{1}{2\sigma^2} \mu_i^T\mu_i + \ln P(w_i) \tag 9 wi0=−2σ21μiTμi+lnP(wi)(9)
决策规则
:
对某个待分类的xxx,分别计算gi(x),i=1,...,cg_i(x),i=1,...,cgi(x),i=1,...,c。若:
gk(x)=maxigi(x)(10)g_k(x)=max_{i} \ g_i(x) \tag {10} gk(x)=maxi gi(x)(10)
则决策x∈wkx \in w_kx∈wk。
由(7)(7)(7)式可以看出,判别函数gi(x)g_i(x)gi(x)是xxx的线性函数。线性分类器的决策面是由线性方程:
gi(x)−gj(x)=0g_i(x)-g_j(x)=0 gi(x)−gj(x)=0
所确定的一个超平面(如果决策域R1R_1R1与R2R_2R2相毗邻)。
在Σi=σ2I\Sigma_i=\sigma^2 IΣi=σ2I的特殊情况下,这个方程可改写为:
wT(x−x0)=0(11)w^T(x-x_0)=0 \tag {11} wT(x−x0)=0(11)
其中:
w=μi−μjx0=12(μi+μj)−σ2∣∣μi−μj∣∣2lnP(wi)P(wj)(μi−μj)(12)w=\mu_i-\mu_j \\ x_0=\frac{1}{2}(\mu_i+\mu_j)-\frac{\sigma^2}{||\mu_i-\mu_j||^2} \ln \frac{P(w_i)}{P(w_j)}(\mu_i-\mu_j) \tag {12} w=μi−μjx0=21(μi+μj)−∣∣μi−μj∣∣2σ2lnP(wj)P(wi)(μi−μj)(12)
满足(11)(11)(11)式的xxx轨迹构成了wiw_iwi与wjw_jwj类间的决策面,它是一个超平面。当P(wi)=P(wj)P(w_i)=P(w_j)P(wi)=P(wj)时,超平面通过μi\mu_iμi与μj\mu_jμj连线中点并与连线正交。
所以,决策面与先验概率相等时的决策面平行,只是向先验概率偏小的方向偏移,即先验概率大的一类要占据更大的决策空间。
正态分布下贝叶斯决策的特例(一)相关推荐
- 【ML学习笔记】17:多元正态分布下极大似然估计最小错误率贝叶斯决策
简述多元正态分布下的最小错误率贝叶斯 如果特征的值向量服从d元正态分布,即其概率密度函数为: 即其分布可以由均值向量和对称的协方差矩阵 唯一确定. 如果认为样本的特征向量在类内服从多元正态分布: 即对 ...
- 正态分布下含绝对值的期望求解 -- 待验证
正态分布下含绝对值的期望求解 首先用伽马函数来证明一个小结论. 设 X ∼ N ( 0 , 1 ) , 求 E ∣ X ∣ X\sim N(0,1),求E|X| X∼
- python 服从正态分布下概率密度函数
python 服从正态分布下概率密度函数 服从正太分布下,概率密度函数公式 公式解释: f(x): 是某样本(样本以数值形式表现)为某数值时发生的概率 0<f(x)<1 x: 是随机抽样的 ...
- python实现非标准正态分布下概率密度有关计算
总目录:Python数据分析整理 之后马上要学习朴素贝叶斯算法了,为之后的学习做好铺垫,重新用python实现了一下数据正态性的检验.根据数据的均值方差,求出小于某个值的概率,或者根据概率求出这个值是 ...
- 正态分布下的最大似然估计
正态分布下的最大似然估计 前导知识:[最大似然参数估计的求解] 本文仅以单变量正态分布情况下估计其均值和方差为例来说明最大似然估计的用法. 单变量正态分布的形式为: ρ(x∣θ)=12πσe−12(x ...
- 机器学习笔记——2 简单线性模型及局部加权线性模型的基本原理和python实现(参数估计的两个基本角度:几何直观和概率直观。函数最值问题的两大基本算法:梯度方法与迭代方法)
简单线性模型及局部加权线性模型的基本原理和python实现(参数估计的两个基本角度:几何直观和概率直观.函数最值问题的两大基本算法:梯度方法与迭代方法) 线性模型是什么? 线性模型是监督学习的各类学习 ...
- 模式识别:最小错误率贝叶斯决策分类
一.引言 1.用贝叶斯决策理论分类要事先知道两个条件及要求: ①.各类的先验概率: 及特征向量的条件概率密度: 或后验概率: ②.决策分类的类别一定 2.解决的问题: 已知一定数目的样本,设计分类器, ...
- 模式识别 —— 第一章 贝叶斯决策理论
模式识别 -- 第一章 贝叶斯决策理论 前言 新的学期开始了,当然是要给不爱吃香菜的月亮记录学习笔记呀~ 没多久了,待夏花绚烂之时~人山人海,我们如约而至! 以后清河海风 溶溶月色 共赏之人 就在身侧 ...
- 【模式识别】最小风险贝叶斯决策
贝叶斯公式 如果每一类在空间中互不相交,有清晰的决策边界,那么就没有必要用贝叶斯方法了.这种叫做确定统计分类. 如果这些类相互之间有重合,新的样本的特征落到一个重合区域,那么就要判断该样本属于某一类的 ...
- 人工智能数学基础--概率与统计13:连续随机变量的标准正态分布
一.引言 在<人工智能数学基础–概率与统计12:连续随机变量的概率密度函数以及正态分布>介绍了连续随机变量概率分布及概率密度函数的概念,并介绍了连续随机变量一个重要的概率密度函数:正态分布 ...
最新文章
- 计算机水平flash试题,计算机flash考试试题
- Heartbeat V2.x双机热备安装
- zabbix3.2.1安装graphtrees插件
- IOS学习之UIDatePicker控件使用
- oracle查询排序速度慢,Oracle-请问Oracle SQL排序查询慢如何解决
- 一篇讲Java指令重排和内存可见性的好文
- 网页空间 - 概念篇
- Apache+Tomcat动静分离
- 兼容超大图片的处理_N年都没弄明白!PS保存的图片格式都啥意思?
- python--multiprocessing多进程总结
- 做短视频自媒体,常用工具和素材网站分享,新手小白收藏抓紧行动
- java 电梯调度_OO_JAVA_多线程电梯调度_单元总结
- 我要偷偷的学Python,然后惊呆所有人(第九天)
- 调用链根因定位论文《Ranking causal anomalies by modeling local propagations on networked systems》
- 数据分析2——核心思维技巧
- 面向 Java 开发人员的区块链链代码
- 原创 基于微信场地预约小程序 毕业设计 毕设 源码 源代码 欣赏 - 可用于羽毛球、篮球、乒乓、网球等预约小程序
- SDU信息门户(8)组队和文件系统分析
- 一、软件测试学习方向
- 程序猿怎么利用技术挣钱?——python量化实践