公式

以下内容来自维基百科:

解读

其实能看懂英文也就不用看这段文字了,不过嫌麻烦的话本段文字应该能让你基本读懂!若本人误解某些概念还望各位批评指正!下面开始!

点间互信息(来自维基百科,免费的百科全书)

点间互信息或者点互信息是一种用于信息论和统计学中的关联性度量,与点互信息PMI中的互信息MI恰好相反,点互信息PMI是关于单个事件,而互信息MI是关于所有可能事件的平均值。这里解释一下,互信息请参考信息熵、自信息与互信息_矩阵科学的博客-CSDN博客_条件自信息和互信息的区别,我们知道互信息的公式为:

那么我们发现点互信息就是后面这个log,所以PMI是关于单个事件的,而MI是所有点互信息乘以期望累加起来,也就是所有点的点互信息的均值嘛!有点连点成线的感觉。这也就是为什么叫做点互信息的原因吧,妙啊!好啦,接下来继续说:

内容

  • 1定义
  • 2相互信息的相似性
  • 3标准化点间互信息(npmi)
  • 4不同的 PMI
  • 5采购经理人指数的链式规则
  • 6申请
  • 7参考资料
  • 8外部链接

定义

一对离散随机变量 x 和 y 的结果 x 和 y 的 PMI 量化了给定它们联合分布的概率和假设独立的个体分布之间的差异。数学上:

随机变量 x 和 y 的互信息(MI)是 PMI 的期望值(包括所有可能的结果)。点互信息结果是对称的(),它可以取正值或者负值,但是如果X和Y相对独立它就等于0(解释:X与Y独立则,带入上面公式结果为0 )。注意即使PMI可能是负值或者正值,它的所有事件的期望结果互信息MI是正值。当X和Y完全相关时( 或者  ),PMI最大化,因为log函数单调增,概率最大值为1,。界限如下所示:

最后,如果不变,但是变小,则将变大。

下面举个栗子说明:(可以理解两个不均匀的硬币A、B各抛掷一次,x=0表示A正面,x=1表示A反面,y=0表示B正面,y=1表示B反面,各抛掷一次得到)

x y p(xy)
0 0 0.1
0 1 0.7
1 0 0.15
1 1 0.05

使用这个表格我们可以边缘化以获得下面附加的表格:

p(x) p(y)
0 0.8 0.25
1 0.2 0.75

我们可以计算得到以下四个值:

pmi(x=0;y=0) = −1
pmi(x=0;y=1) = 0.222392
pmi(x=1;y=0) = 1.584963
pmi(x=1;y=1) = -1.584963

点间互信息有许多与互信息相同的关系,特别是,

 是自信息,公式为

Normalized pointwise mutual information (npmi)

标准点互信息

点互信息可以被标准化到区间[-1,1]之内,极限值-1表示从未同时出现,0表示独立,1表示完全同时发生。

这儿 是联合自信息,公式为

应用

在20世纪90年代计算语言学,PMI 已经被用于寻找词汇之间的搭配和联系。例如,文本语料库中出现和同时出现的词的计数可以用来分别近似概率p (x)和p (x,y)。下表显示了在维基百科(Wikipedia,2015年10月转储)的前5000万个单词中获得最多和最少 PMI 得分的单词对计数,过滤了1000个或更多同时出现的单词。每次计数的频率可以用50,000,952除以。(注意: 本例中使用自然对数基数e来计算 PMI 值,而不是使用对数基数2。

好的搭配对具有较高的 PMI,因为共现概率仅略低于每个词的共现概率。相反,一对出现概率大大高于同出现概率的单词得到一个较小的 PMI 分值。所以说PMI越大说明两个词共现的频率更大,相关性越大,反之PMI越小两个词共现的概率越低。

总之,PMI越大越相关,越小越无关。

PMI(Pointwise Mutual Information)相关推荐

  1. 机器学习中的数学——距离定义(二十九):点间互信息(Pointwise Mutual Information, PMI)

    分类目录:<机器学习中的数学>总目录 相关文章: · 距离定义:基础知识 · 距离定义(一):欧几里得距离(Euclidean Distance) · 距离定义(二):曼哈顿距离(Manh ...

  2. 互信息(Mutual Information)的介绍

    互信息,Mutual Information,缩写为MI,表示两个变量X与Y是否有关系,以及关系的强弱. 如果 (X, Y) ~ p(x, y), X, Y 之间的互信息 I(X; Y)定义为: No ...

  3. Mutual Information

    今天挺paper reading的时候,听到了最大化互信息,还不清楚互信息是个什么东东,google了一下,从 http://en.wikipedia.org/wiki/Mutual_informat ...

  4. 互信息(Mutual Information)

    本文根据以下参考资料进行整理: 1.维基百科:https://zh.wikipedia.org/wiki/%E4%BA%92%E4%BF%A1%E6%81%AF 2.新浪博客:http://blog. ...

  5. 用于提升多样性的Maximum Mutual Information算法

    MMI:Maximum Mutual Information 1. 背景 ​ 在传统的seq2seq领域,多样性问题一直是个令人困扰的问题,一个典型的例子就是bot领域,在回答的时候容易生成一些非常s ...

  6. 互信息(Mutual Information)介绍

    在概率论和信息论中,两个随机变量的互信息(Mutual Information,简称MI)或转移信息(transinformation)是变量间相互依赖性的量度.不同于相关系数,互信息并不局限于实值随 ...

  7. 机器学习特征筛选:互信息法(mutual information)

    机器学习特征筛选:互信息法(mutual information) 互信息法多为分类问题的分类变量的筛选方法 经典的互信息也是评价定性自变量对定性因变量的相关性的,为了处理定量数据,最大信息系数法被提 ...

  8. Feature Selection Based on Mutual Information:Criteria of Max-Dependency, Max-Relevance,and Min-Redu

    Feature Selection Based on Mutual Information:Criteria of Max-Dependency, Max-Relevance,and Min-Redu ...

  9. 双目立体匹配经典算法之Semi-Global Matching(SGM)概述:匹配代价计算之互信息(Mutual Information,MI)...

      半全局立体匹配算法Semi-Global Matching,SGM由学者Hirschmüller在2005年所提出1,提出的背景是一方面高效率的局部算法由于所基于的局部窗口视差相同的假设在很多情况 ...

  10. Mutual Information Neural Estimation梳理

    Mutual Information Neural Estimation 原文 参考:https://ruihongqiu.github.io/posts/2020/07/mine/ 背景 互信息可以 ...

最新文章

  1. IT菜鸟,希望大家赐教
  2. Web前端工程师工作前 VS 工作后
  3. Oracle学习笔记(1)
  4. php对话框制作,织梦系统“提示窗口对话框类”详解,oxwindow.class.php、catalog_do.php...
  5. LeetCode 92. 反转链表 II(双指针)
  6. python 除法取模_跟我一起学python | 探究05
  7. 【Python】GUI编程(Tkinter)教程
  8. shell 基础知识
  9. 周边pd是什么意思_肿瘤百问百答(六)关于胃癌的PD-1抗体治疗,你应该知道些什么?...
  10. Android 应用启动速度优化
  11. 39. 组合总和 ,40. 组合总和 II,216. 组合总和 III
  12. 证券基金行业那些智能XX(上)
  13. Android Framework实战视频系列
  14. 快解析:管家婆辉煌II TOP+异地访问解决方案
  15. [开发笔记]-多线程
  16. H5页面(三)效果之实现图片360度旋转---------spritespin.js插件
  17. 修改win7计算机mac,win7如何在注册表改网卡mac
  18. 【转】SPARC处理器30年沉浮
  19. 谢谢 留下几个 那个有关于C++既QQ群吖
  20. 用java计算输入工资计算税收_标准作业

热门文章

  1. flutter ListView.separated使用
  2. 追梦App系列博客——第一次会议总结
  3. imazing是什么?iPhone苹果第三方iOS设备管理软件
  4. 装机配置相关---激活win7旗舰版 office
  5. 要干翻苹果的魅族,到底输在哪里?
  6. c语言中get的作用,c语言中get的用法
  7. 自然场景文本检测识别 - 综述
  8. SEO优化外包 避坑指南
  9. 洞察Tungsten Fabric内部的XMPP
  10. 什么是SEO?SEO的区别在哪里?