发表于 2009年04月25号 由 52nlp

自然语言处理:最大熵和对数线性模型
Natural Language Processing: Maximum Entropy and Log-linear Models 
作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)
译者:我爱自然语言处理(www.52nlp.cn ,2009年4月25日)

上一讲主要内容回顾(Last time):
* 基于转换的标注器(Transformation-based tagger)
* 基于隐马尔科夫模型的标注器(HMM-based tagger)

遗留的内容(Leftovers): 
a) 词性分布(POS distribution)
 i. 在Brown语料库中按歧义程度排列的词型数目(The number of word types in Brown corpus by degree of ambiguity):
  无歧义(Unambiguous)只有1个标记: 35,340
    歧义(Ambiguous) 有2-7个标记: 4,100
                2个标记:3,764
                3个标记:264
                4个标记:61
                5个标记:12
                6个标记:2
                7个标记:1
b) 无监督的TBL(Unsupervised TBL)
 i. 初始化(Initialization):允许的词性列表(a list of allowable part of speech tags)
 ii. 转换(Transformations): 在上下文C中将一个单词的标记从χ变为Y (Change the tag of a word from χ to Y in context C, where γ ∈ χ).
  例子(Example): “From NN VBP to VBP if previous tag is NNS”
 iii. 评分标准(Scoring criterion):
  

这一讲主要内容(Today):

* 最大熵模型(Maximum entropy models)
* 与对数线性模型的联系(Connection to log-linear models)
* 优化方法(Optimization methods)

一般问题描述(The General Problem):
a) 给定输入域χ(We have some input domain χ);
b) 给定标记集γ(We have some label set γ);
c) 目标(Goal):对于任何x ∈ χ 及 y ∈γ学习一个条件概率P(y|x) (learn a conditional probability P(y|x)for any x ∈ χ and y ∈ γ )。

一、 词性标注(POS tagging):

a) 例子:Our/PRP$ enemies/NNS are/VBP innovative/JJ and/CC resourceful/JJ ,/, and/CC so/RB are/VB we/PRP ?/?.
 i. 输入域(Input domain):χ是可能的“历史”(χ is the set of possible histories);
 ii. 标记集(Label set):γ是所有可能的标注标记(γ is the set of all possible tags);
 iii. 目标(Goal):学习一个条件概率P(tag|history)(learn a conditional probability P(tag|history))。
b) 表现形式(Representation):
 i. “历史”是一个4元组(t1,t2,w[1:n],i) (History is a 4-tuples (t1,t2,w[1:n],i);
 ii. t1,t2是前两个标记(t1,t2 are the previous two tags)
 iii. w[1:n]是输入句子中的n个单词(w[1:n]are the n words in the input sentence)
 iv. i 是将要被标注的单词的位置索引(i is the index of the word being tagged)
 χ是所有可能的“历史”集合(χis the set of all possible histories)

附:课程及课件pdf下载MIT英文网页地址:
   http://people.csail.mit.edu/regina/6881/

转载于:https://www.cnblogs.com/renly/archive/2013/01/07/2849905.html

MIT自然语言处理第五讲:最大熵和对数线性模型(第一部分)相关推荐

  1. MIT自然语言处理第五讲:最大熵和对数线性模型

    MIT自然语言处理第五讲:最大熵和对数线性模型(第一部分) 自然语言处理:最大熵和对数线性模型 Natural Language Processing: Maximum Entropy and Log ...

  2. MIT自然语言处理第三讲:概率语言模型(第一、二、三部分)

    MIT自然语言处理第三讲:概率语言模型(第一部分) 自然语言处理:概率语言模型 Natural Language Processing: Probabilistic Language Modeling ...

  3. MIT自然语言处理第二讲:单词计数(第一、二部分)

    MIT自然语言处理第二讲:单词计数(第一部分) 自然语言处理:单词计数 Natural Language Processing: (Simple) Word Counting 作者:Regina Ba ...

  4. MIT自然语言处理第四讲:标注

    MIT自然语言处理第四讲:标注(第一部分) 自然语言处理:标注 Natural Language Processing: Tagging 作者:Regina Barzilay(MIT,EECS Dep ...

  5. MIT自然语言处理第一讲:简介和概述(第三部分)

    自然语言处理:背景和概述 Natural Language Processing:Background and Overview 作者:Regina Barzilay(MIT,EECS Departm ...

  6. 【机器学习】对数线性模型之Logistic回归、SoftMax回归和最大熵模型

    来源 | AI小白入门 作者 | 文杰 编辑 | yuquanle 完整代码见:原文链接 1. Logistic回归 ​ 分类问题可以看作是在回归函数上的一个分类.一般情况下定义二值函数,然而二值函数 ...

  7. MIT自然语言处理第三讲:概率语言模型(第四、五、六部分)

    MIT自然语言处理第三讲:概率语言模型(第四部分) 自然语言处理:概率语言模型 Natural Language Processing: Probabilistic Language Modeling ...

  8. MIT自然语言处理第二讲:单词计数(第三、四部分)

    MIT自然语言处理第二讲:单词计数(第三部分) 自然语言处理:单词计数 Natural Language Processing: (Simple) Word Counting 作者:Regina Ba ...

  9. 对数线性模型之一(逻辑回归), 广义线性模型学习总结

    经典线性模型自变量的线性预测就是因变量的估计值. 广义线性模型:自变量的线性预测的函数是因变量的估计值.常见的广义线性模型有:probit模型.poisson模型.对数线性模型等等.对数线性模型里有: ...

最新文章

  1. linux日志idProduct,linux – 机器ID是uuid吗?
  2. centos8.2 hyper第一代 第二代_欧洲第一代法王以工程师身份加入拳头游戏,网友齐呼:是真的牛...
  3. ai的弹窗点了都不响应_【评价集合】拼多多评价,你所不知道的点都在这里!...
  4. 简单的视频采集demo
  5. Hive Fetch Task
  6. SVN错误:Attempted to lock an already-locked dir
  7. php随机数字不重复使等式成立_当随机数遇上量子
  8. DM368 Uboot
  9. oracle jet auto,如何启用sqlplus的AutoTrace功能
  10. php 微信支付md5签名,微信支付回调验证签名处理
  11. Spring基础面试题-同步更新
  12. Android开发笔记(一百七十一)使用Glide加载网络图片
  13. 数据库的范式总结(待续)
  14. Teamviewer 曝重大安全漏洞,攻击者可任意控制用户或属乌龙事件!(内附安全处理建议)...
  15. 合肥工业大学机器人技术期末_机器人技术基础期末考试复习资料
  16. 字体磅数与字号对照表
  17. 『paddle』paddleclas 学习笔记:图像识别
  18. 数据库身份证号用什么类型_《PHP和MySQL Web 开发》第8章 设计Web数据库
  19. 破解压缩包密码的正确思路原理
  20. c/c++游戏编程之Easyx图形库基础

热门文章

  1. 一次 Jar 包升级引发的血案 amp; 解决
  2. 2022斯坦福AI指数报告出炉!中国霸榜AI顶会,但引用量最低
  3. 大神开发arXiv全新H5版,一步告别公式排版错误,手机也能轻松看文献
  4. 博士在读却连矩阵的秩都搞不清,我该如何毕业?
  5. 我被编程语言PUA了!
  6. 让你的博士经历更加轻松愉快的10个tips
  7. 没有导师的指导,研究生如何阅读文献、提出创见、写论文?
  8. 今天,苹果遭遇大宕机
  9. ​从800个GPU训练几十天到单个GPU几小时,看神经架构搜索如何进化
  10. 不可错过的2019秋招CV岗心得!原来拿offer也是有套路的