文字和语言 vs 数字和信息
不同的文字系统(包括数学)在记录信息上的能力是等价的。
印度人发明了阿拉伯数字,不是阿拉伯人。
如果把中文的笔画作为字母,它其实也是一种拼音文字,不过它是二维的而已。
所以西方的拼音文字称为罗马式的语言。
在东汉以前要将文字刻在其它物件比如龟壳、石碑和竹简上。所以要惜墨如金,这就使得古文异常简洁难懂,而同时期的口语却和今天的白话差别不大(岭南客家话)。
如果说从字母到词的构词法是词的编码规则,那么语法则是语言的编码和解码规则。
自然语言处理——从规则到统计
计算机能处理自然语言,且处理方法和人类一样。
图灵测试:让人和机器进行交互,如果人无法判断自己交流的对象是人还是机器时,就说明这个机器有智能了。
学习西方语言,都要学习它们的语法规则,词性,和构词法等。
自然语言的文法是上下文有关文法(Context Dependent Grammar),程序语言是上下文无关文法(Context Independent Grammar)。
统计语言模型
统计语言模型(Statistical Language Model):为自然语言这种上下文相关的特性建立的数学模型。
二元模型:对于p(w1,w2,…,wn)=p(w1)p(w2|w1)p(w3|w1,w2)…p(wn|w1,w2,…,wn-1)的展开问题,因为p(w3|w1,w2)难计算,p(wn|w1,w2,…,wn-1)更难计算,马尔科夫给出了一个偷懒但是颇为有效的方法,也就是每当遇到这种情况时,就假设任意wi出现的概率只与它前面的wi-1有关,即p(s)=p(w1)p(w2|w1)p(w3|w2)…p(wi|wi-1)…p(wn|wn-1)。现在这个概率就变的简单了。对应的语言模型为二元模型(Bigram Model)。
马尔可夫假设:随机过程中,有一类具有“无后效性质”,即当随机过程在某一时刻to所处的状态已知的条件下,过程在时刻t>to时所处的状态只和to时刻有关,而与to以前的状态无关,则这种随机过程称为马尔科夫过程。 即是:ito为确知,it(t>to)只与ito有关,这种性质为无后效性,又叫马尔科夫假设。
N-1阶马尔可夫假设对应的语言模型称为N元模型(N-Gram Model)。
Google的罗塞塔翻译系统和语言搜索系统,使用的是四元模型。
模型的训练、零概率问题和平滑方法
大数定律(Low of Large Numbers):只要统计量足够,相对频度就等于概率。
古德-图灵估计(Good-Turing Estimage):Good-Turing平滑法可处理N元语法中数据矩阵的稀疏问题,主要思想将非零N元语法的概率匀给一些低概率语法,以修改最大似然估计与真实概率之间的偏离。
Zipf定律(Zipf's Law):如果把单词出现的频率按由大到小的顺序排列,则每个单词出现的频率与它的名次的常数次幂存在简单的反比关系。(符合二八定律)。
卡茨退避法(Katz backoff:对于频率超过一定阈值的词,它们的概率估计就是它们在语料库中的相对频度,对于频率小于这个阈值的词,它们的概率估计就小于他们的相对频度,出现次数越少,频率下调越多。对于未看见的词,也给予一个比较小的概率(即下调得到的频率总和),这样所有词的概率估计都平滑了。
 
隐含马尔可夫模型
雅格布森通信的六要素:发送者(信息源),信道,接收者,信息,上下文和编码。
符合马尔科夫假设(各个状态st的概率分布只与它前一个状态st-1有关)的随机过程成为马尔可夫过程,也称为马尔可夫链。
隐含马尔科夫模型是马尔科夫链的扩展,任意时刻t的状态st是不可见的,所以观察者没法通过观察到一个状态序列s1,s2,s3,…,sT来推测转移概率等参数。但是隐马尔科夫模型在每个时刻t会输出一个符号ot,而且ot和st相关且仅和ot相关。这个被称为独立输出假设。其中隐含的状态s1,s2,s3,…是一个典型的马尔科夫链。
延伸阅读:隐含马尔可夫模型的训练
隐含马尔科夫模型的三个基本问题:
  1. 给定一个模型,如何计算某个特定的输出序列的概率。(Forward-Backward算法
  2. 给定一个模型和某个特定的输出序列,如何找到最可能产生这个输出的状态序列。(维特比算法
  3. 给定足够量的观测数据,如何估计隐含马尔可夫模型的参数。
转移概率:从前一个状态St-1进入当前状态St的概率P(St|St-1)。
生成概率:每个状态St产生相应输出符号Ot的概率P(Ot|St)。
转移概率和生成概率被称为隐含马尔可夫模型的参数,而计算或者估计这些参数的过程称为模型的训练
有监督的训练方法:人工标注数据。
无监督的训练方法:鲍姆-韦尔奇算法(Baum-Welch Algorithm):首先找到一组能够产生输出序列O的模型参数,这个初始模型成为Mtheta0,需要在此基础上找到一个更好的模型,假定不但可以算出这个模型产生O的概率P(O|Mtheta0),而且能够找到这个模型产生O的所有可能的路径以及这些路径的概率。并算出一组新的模型参数theta1,从Mtheta0到Mtheta1的过程称为一次迭代。接下来从Mtheta1出发寻找更好的模型Mtheta2,并一直找下去,直到模型的质量没有明显提高为止。这样一直估计(Expectation)新的模型参数,使得输出的概率达到最大化(Maximization)的过程被称为期望值最大化(Expectation-Maximization)简称EM过程。EM过程能保证一定能收敛到一个局部最优点,但不能保证找到全局最优点。因此,在一些自然语言处理的应用中,这种无监督的鲍姆-韦尔奇算法训练处的模型比有监督的训练得到的模型效果略差。
隐含马尔科夫模型是机器学习主要工具之一,和几乎所有机器学习的模型工具一样,它需要一个训练算法(鲍姆-韦尔奇算法)和使用时的解码算法(维特比算法)。掌握了这两类算法,就基本上可以使用隐含马尔科夫模型这个工具了。
隐马尔可夫模型攻略
信息的度量和作用
香农三定理
通信的数学原理-香农
信息熵(Entropy):信息量就等于不确定性的多少。
计算公式:H(x)=E[I(xi)]=E[ log(2,1/p(xi)) ]=-∑p(xi)log(2,p(xi)) (i=1,2,..n)
冗余度(Redundancy):数据的重复度。在一个数据集合中重复的数据称为数据冗余。
汉语信息熵和语言模型的复杂度
互信息(Mutual Information):对两个随机事件“相关性”的量化度量。
相对熵(交叉熵,KL散度,Kullback–Leibler divergence,KLD):用来度量两个取值为正数的函数的相似性。
  1. 对于两个完全相同的函数,它们的相对熵等于零。
  2. 相对熵越大,两个函数差异越大;反之,相对熵越小,两个函数差异越小。
  3. 对于概率分布或者概率密度函数,如果取值均大于零,相对熵可以度量两个随机分布的差异性。
语言模型复杂度(Perplexity):在给定上下文的条件上,句子中每个位置平均可以选择的单词数量。复杂度越小,每个位置的词就越确定,模型越好。
贾里尼克和现代语言处理
  1. 小学生和中学生没必要花那么多时间读书,他们的社会经验、生活能力以及在那时树立起的志向将帮助他们的一生。
  2. 中学阶段花很多时间比同伴多读的课程,在大学以后可以用非常短的时间就可以读完,在大学阶段,人的理解了要强得多。
  3. 学习和教育是一个人一辈子的事。
  4. 书本的内容可以早学,也可以晚学,但是错过了成长阶段却是无法弥补的。
Truth is ever to be found in simplicity, and not in the multiplicity and confusion of things.
网络爬虫问题:如何在有限时间里最多地爬下最重要的网页,在这个前提下,显然BFS明显优于DFS。
TF-IDF ( Term Frequency / Inverse Document Frequency )
TF:单文本词频
IDF:逆文本词频指数,公式:log(D/Dw) D:全部网页数 Dw:关键词w在Dw个网页中出现过。
  1. 一个词预测主题的能力越强,权重越大,反之,权重越小。
  2. 停止词(是、和、中、地。。。)的权重为零。
模糊匹配问题的解决总是依靠马尔科夫链。
计算机是如此重要,因此不能只留给男人去做!
有限状态机:表示有限个状态以及在这些状态之间的转移和动作等行为的数学模型。
加权的有限状态传感器(WFST):有限状态机中的每个状态由输入和输出符号定义,根据输入和输出可能性的不同赋以权重。WFST中的每一条路径就是一个候选的句子,其中概率最大的那条路径就是句子的识别结果。
先帮助用户解决80%的问题,再慢慢解决剩下的20%问题,是在工业界成功的秘诀之一。
余弦定理进行新闻分类:
  1. 新闻的特征向量:一篇新闻中N个词的TF-IDF值构成的N维向量。向量中每一个维度的大小代表每个词对这篇新闻主题的贡献。
  2. 计算所有新闻之间两两的余弦相似性,把相似性大于一个阀值的新闻合并成一个小类。这样N篇新闻就被合并成N1个小类,当然N1<N。
  3. 把每个小类中所有的新闻作为一个整体,计算小类的特征向量,再计算小类之间两两的余弦相似性,然后合并成大一点的小类,假如有N2个,当然N2<N1。
如果对一段信息进行无损压缩编码,理论上编码后的最短长度就是它的信息熵。
伪随机数产生器算法:将任意很长的整数转换层特定长度的伪随机数。
基于加密的伪随机数产生器:MD5、SHA-1
视频匹配的两个核心技术:关键帧的提取和特征的提取。MPEG视频每一帧之间差异不大,只有极少数的帧是完整的图像,这些称为关键帧。其余帧储存的只是和关键帧相比的差异值。
公开密匙加密:也称为非对称密钥,每个人都有一对唯一对应的密钥:公开密钥(简称公钥)和私人密钥(简称私钥),公钥对外公开,私钥由个人秘密保存;用其中一把密钥加密,就只能用另一把密钥解密。非对称密钥加密算法的典型代表是RSA
利用已经获得的信息情报来消除一个情报系统的不确定性就是解密。因此,密码学的最高境界就是无论敌方获取多少密文,也无法消除己方情报系统的不确定性。
  1. 找两个很大的素数P和Q,越大越好,然后计算它们的乘绩:N=P*Q;M=(P-1)*(Q-1)
  2. 找一个和M互素的整数E(E和M最小公约数为1)
  3. 找一个整数D,使E*D/M余1,即E*D mod M=1
  4. 其中E是公钥,谁都可以用来加密,D是私钥用于解密,一定要保存好,乘积N是公开的,被人知道也无所谓
  5. 对X加密得到Y----X^(E) mod N=Y
  6. 根据费马小定理,用如下公式解密  Y^(D) mod N=X
最大熵(Maximum Entropy)模型:需要对一个随机事件的概率分布进行预测时,我们的预测应当满足全部已知的条件,而对未知的情况不要做任何主观假设。此时概率分布的信息熵最大。(就是要保留全部的不确定性,将风险降到最小。)
通用迭代算法GIS(Generalized Iterative Scaling):最原始的最大熵模型训练方法,是一个典型的期望值最大化算法(EM)
  1. 假定第零次迭代的初始模型为等概率的均匀分布。
  2. 用第N次迭代的模型来估算每种信息特征在训练数据中的分布。如果超过了实际的,就把相应的模型参数变小。否者,将它们变大。
  3. 重复步骤2直至收敛。
IIS:改进迭代算法,使得最大熵模型的训练时间缩短了一到两个数量级。
布隆过滤器:一个很长的二进制向量和一系列随机映射函数。布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。
贝叶斯网络(信念网络):一个加权的有向图,是马尔可夫链的扩展。马尔可夫链是贝叶斯网络的特例。
得到贝叶斯网络拓扑结果和各个状态之间相关概率的过程分别称为结构训练和参数训练,统称训练。
从理论上讲,贝叶斯网络的训练是一个 NP-Complete 问题。
条件随机场:如同马尔可夫随机场,条件随机场为具有无向的图模型,图中的顶点代表随机变量,顶点间的连线代表随机变量间的相依关系,在条件随机场中,随机变量 Y 的分布为条件机率,给定的观察值则为随机变量 X。
维特比算法:针对篱笆网络的有向图的最短路径问题。
频分多址(FDMA):对频率进行切分,每一路通信使用一个不同的频率,对讲机采用的就是这个原理。
时分多址(TDMA):将同一频带按时间分成很多份。
码分多址(CDMA):扩频传输。每个发送者有自己不同的密码,接收者在接收到不通信号时,通过密码过滤掉自己无法解码的信号。根据不同的密码区分发送,因此称为码多分址。
期望最大值算法(Expectation Maximization Alogorithm)
E过程:根据现有的模型,计算各个观测数据输入到模型中的计算结果,称为期望值计算过程。
M过程:重新计算模型模型参数,以最大化期望值。
逻辑回归模型
转自:叶科忠's Blog :http://www.yekezhong.com/974

[转]《数学之美》 阅读笔记相关推荐

  1. 数学之美-读书笔记6-10章

    文章目录 数学之美 第六章 信息的度量和作用 1信息熵 2信息的作用 3互信息 4延伸阅读 第7章 贾里尼克和现代语言处理 1早年生活 2 从水门事件到莫妮卡·莱文斯基 3一位老人的奇迹 第八章 简单 ...

  2. 数据分析?他们早就开始用了——数学之美读书笔记

    数据分析?他们早就开始用了? 标题取得很好听,其实就是<数学之美>这本书的读书笔记.这是每一个想学编程了解计算机的人都不应该错过的好书,必须推荐 光 看这个名字,你可能以为它就是一本讲数学 ...

  3. 数学之美-读书笔记11-15章

    文章目录 数学之美 第十一章 如何确定网页和查询的相关性 1搜索关键词权重的科学度量-TF-IDF 第十二章 有限状态机和动态规划-地图与本地搜索的核心技术 1地址分析和有限状态机 2全球导航和动态规 ...

  4. 度量相似性数学建模_数学之美读书笔记

    2020年6月读,先通读一遍,随后为写读书笔记又重新读了一遍,收获颇丰,虽然没有很多数学或者编程方面的知识,但正如作者所说,这本书讲述的是道,而非术. 读这本书让我领略到了科学的趣味,并不是枯燥的敲代 ...

  5. 数学之美读书笔记--摘抄

     "系列一: 统计语言模型" "利用统计语言模型进行语言处理" "假定任意一个词wi的出现概率只同它前面的词 wi-1 有关(即马尔可夫假设)&quo ...

  6. 《数学之美》---笔记006

    第二十一章:拼音输入法的数学原理 输入法输入输入汉字的快慢取决于汉字编码的平均长度,通俗点讲,就是用击键次数乘以寻找这个键所需要的时间 键盘上可用编码的基本键26个字母加上10个数字键(十个数字用来消 ...

  7. 架构之美阅读笔记之一

    寒假生活开始了,关于软件架构这部分的学习,我选择的是<架构之美>这本书.这本出版于2009年的书,由浅入深地讲述了从架构的概述,到企业级应用架构,系统架构,最终用户应用架构,再到语言与架构 ...

  8. 数学之美读书笔记第一章

    通信的原理和信息传播的模型 原理:信息被编码,再被解码的过程. 信息传播的模型: 传播人 => 信息 -> 编码信息 ->信道(声音介质,双绞线介质等) -> 解码信息 =&g ...

  9. java 对数取反_数学之美读书笔记-拼音输入法的数学原理

    从理论上分析,输入汉字到底能有多快?这里需要用到信息论中的香农第一定理.假定在国标GB2312里面,一共有6700多个常用的汉字.如果不考虑汉字频率的分布,用键盘上的26个字母对汉字进行编码,两个字母 ...

  10. 【读书笔记】《数学之美》——一个好方法在形式上总是简单的

    数学之美 作者简介 内容简介 摘抄语录 收获感悟 牛顿曾说"(人们)发觉真理在形式上从来是简单的,而不是复杂和含混的."数学的美妙之处在于它对自然界史诗的总结和归纳,也是抽象思考的 ...

最新文章

  1. Android 侧滑栏 (DrawerLayout)
  2. python可以处理哪些文件_python文件处理
  3. react draft api 简介
  4. 域创实业谋定功能性-农业大健康·万祥军:借创新引领潮流
  5. Jquery中使用Validate插件使表单验证更加简单
  6. 现在女生的床真的都是这样吗?
  7. 【算法设计与分析】09 递推方程与算法分析
  8. static和extern对函数的作用
  9. JQuery元素操小结
  10. 背包问题的二进制优化
  11. mysql链接丢失_mysql 连接丢失错误解决(转载)
  12. 关于spring cloud的几个核心组件
  13. Picture Box(1) 修正版
  14. [概率][lca][dfs][树形dp] Jzoj P4225 宝藏
  15. Python 批量更改文件名、更改文件格式
  16. Window纯净系统安装详细教程
  17. 要「自我颠覆」的华为Mate 10来了
  18. C 学习笔记 —— 高级指针话题
  19. 2、MySQL数据库-表的修改
  20. C# URL编码转换 URL转码 UrlDecode UrlEncode

热门文章

  1. 大数据时代的大数据管理发展,经历了哪几个阶段?
  2. 在此计算机运行应用程序灰色,手把手教你解决win10系统自带应用呈灰色无法打开的处理教程...
  3. PHPstudy小白起步
  4. 计算机中 符号咋打,乘以符号电脑怎么打_详细教您打出乘以符号的方法
  5. php文字链接下划线怎么取消,css怎么去掉超链接下划线
  6. PyCharm取消下划线
  7. 2020 校招,我是如何拿到小米、京东、字节大厂前端offer
  8. “三天打鱼,两天晒网”问题
  9. 网络虚拟化——SR-IOV
  10. 43.10. Google Authenticator - Android Apps on Google Play