1. 有关语言学(linguistics)的启发

语音学(Phonetics)是一种非常基本的理论,只要是正常人,有着相同的人体器官和相同的发声结构,就会遵循着相同的发声规则和原理。
语音体系(Phonology)是有语义的声音的合集,各国各文明的人都会制定自己的语音体系。
音素(Phoneme)是语音中划分出来的最小的语音单位,分为元音和辅音
国际音标(由音素构成)按理来说可以表示所有的语音,但是会发现好多语音是没有语义的,这时我们采取的办法就是看音素的下一级(part of words)。
同样的思想我们可以用在深度学习上,如果我们在做翻译任务(Neural Machine Translation)时发现一些没有含义的单词(也就是不在词汇库中的单词),我们可以通过找比单词更基本的成分来解决问题。
现实生活中做翻译任务时我们确实需要处理很大的,很开放的词汇(所以上述讨论是有意义的):
非常丰富的词形
音译的单词(例如人名)
非正式的拼写()

2. 字符级模型(Character-Level Model)

有了上面的分析,我们可以想到,使用比word更基本的组成来做NMT任务,于是首先我们很容易想到字符级的模型。我们有两种方法来实现字符级的模型:

a)先生成character-embedding, 然后为那些没出现在词汇库中的单词(out of vocabulary后面用OOV表示)生成word-embedding, 即使用character-embedding来组成word-embedding以解决OOV问题。
b)直接把语言当成字符处理,只生成character-embedding,不考虑word级别。
这两种方法都被证明是成功的。后续也有很多的工作使用字符级的模型来解决NMT任务。但这些任务有一些共同的缺点,由于从单词替换成字符导致处理的序列变长,速度变慢;由于序列变长,数据变得稀疏,数据之间的联系的距离变大,不利于学习。于是2017年,Jason Lee, Kyunghyun Cho, Thomas Hoffmann发表了论文Fully Character-Level Neural Machine Translation without Explicit Segmentation 解决了这些问题。

This is encoder, decoder is a similar char_level GRU
输入的character首先做一个embedding, 然后分别与大小为3,4,5的filter进行卷积运算,就相当于3-grams, 4-grams和5-grams。之后进行max-pooling操作,相当与选出了有语义信息的segment-embedding。之后将这些embedding送入Highway Network(相当于resnet, 解决了深层神经网络不容易训练的问题)后再通过一个单层的双向GRU,得到最终的encoder的output。之后经过一个character-level的GRU(作为decoder)得到最终结果。

还有一篇2018年的文章表明在一些复杂的语言中(比如捷克语),character级别的模型会大幅提高翻译准确率,但在较为简单的语言中(如英语法语),character级别的模型提升效果不显著。同时,研究发现在模型较小时word-level的模型效果更好,在模型较大时character-level 的效果更好。

总之,现有的character-level的模型在NMT任务上可以更好的处理OOV的问题,可以理解为我们可以学习一些字符级别的语义信息帮助我们进行翻译。

3. Subword Model: Byte Pair Encoding

所谓subword,就是取一个介于字符和单词之间成分为基本单元建立的模型。而所谓Byte Pair Encoding(一下简称BPE),就是寻找经常出现在一起的Byte对,合并成一个新的Byte加入词汇库中。即若给定了文本库,若我们的初始词汇库包含所有的单个字符,则我们会不断的将出现频率最高的n-gram的pair作为新的n-gram加入词汇库中,直到达到我们的要求。

可见此时出现频率最高的n-gram pair是“e,s”,出现了9次,因此我们将“es”作为新词加入到词汇库中同时更新文本库。此时词汇库和文本库如下。

这时词汇库中出现频率最高的n-gram pair是“es,t”,出现了9次,因此我们将“est”加入词汇库中同时更新文本库。此时词汇库和文本库如下。

依次类推,可以逐渐的通过增加新的n-gram的方式达到我们的目标。对于现实生活中有很多词汇量非常大的task,这种通过BPE逐步建立词汇库的方式就显得非常有用了。

Google 的NMT模型也是从BPE演化而来,一个叫wordpiece model,一个叫sentencepiece model。其中wordpiece model每次不是选取出现频率最高的n-gram, 而是每次选取能使得其所使用的语言模型的复杂度减少最多的n-gram。而sentencepiece model则是将词与词之间的空白也作为一种单词,这样整个sentence就可以直接进行处理而不需要预处理成单词后再embedding。

4. Hybrid character and word-level models

核心思想:大部分时候都使用word-level的模型来做translate,只有在遇到rare or unseen的words的时候才会使用character-level的模型协助。这种做法产生了非常好的效果。

比如该例子中,若cute是一个out of vocabulary的单词,我们就需要使用character-level的模型去处理。在decode过程中,如果发现,说明需要character-level的decode, 最后的损失函数是word-level部分和character-level部分的加权叠加。

同时,值得一提的是decoding过程中,在word-level部分和character-level部分均使用了beam search的方法,选取topK可能性的字符或单词。

这种混合模型在WMT’15的库上取得了SOTA的结果。

5.FastText

我们知道在word2vec方法中我们基于word-level的模型来得到每一个单词的embedding,但是对于含有许多OOV单词的文本库word2vec的效果并不好。由此很容易联想到,如果将subword的思想融入到word2vec中是不是会产生更好的效果呢?

FastText方法就是汲取了subword的思想,它将每个单词转变为对于character的n-gram和该单词本身的集合。例如,对于单词“”,以及n=3。

则集合可以表示为{<wh,whe,her,ere,re>,}(其中<>代表单词的开始与结束)。对于每个单词 [公式] ,其对应集合可用 [公式] 来表示。设该集合每个n-gram表示为 [公式] ,则每个单词可以表示为其所有n-gram矢量和的形式,则center word和context word 间的相似度可表示为

的形式,于是就可以使用原有的word2vec算法来训练得到对应单词的embedding。其保证了算法速度快的同时,解决了OOV的问题,是很好的算法。

Information from parts of words: Subword Models相关推荐

  1. 【NLP CS224N笔记】Lecture 12 - Information from parts of words Subword Models

    本次梳理基于Datawhale 第12期组队学习 -CS224n-预训练模块 详细课程内容参考(2019)斯坦福CS224n深度学习自然语言处理课程 1. 写在前面 自然语言处理( NLP )是信息时 ...

  2. CS224n-Lecture12-Information from parts of words (Subword Models)

    (shift,图片复制转存失败问题搞不定,复制黏贴写在本地的文章是真的被恶心到了) 综述 Lecture 12: Information from parts of words: Subword Mo ...

  3. NLP学习-Task 3: 子词模型Subword Models

    NLP学习 更新流程↓ Task 1: 简介和词向量Word Vectors Task 2: 词向量和词义Word Senses Task 3: 子词模型Subword Models Task 4: ...

  4. Lecture 12: Information from parts of words: SubwordModels

    文章目录 Human language sounds: Phonetics and phonology Purely character-level models Sub-word models: t ...

  5. NLP入门 | 通俗讲解Subword Models

    ↑↑↑关注后"星标"Datawhale 每日干货 & 每月组队学习,不错过 Datawhale干货 作者:芙蕖,Datawhale优秀学习者,东北石油大学 对于英文来说,文 ...

  6. Task 3: Subword Models (附代码)(Stanford CS224N NLP with Deep Learning Winter 2019)

    Task 3: Subword Models 目录 Task 3: Subword Models 回顾:Word2vec & Glove 一.人类语言声音:语音学和音系学 二.字符级模型(Ch ...

  7. 2019年CS224N课程笔记-Lecture 12: Subword Models

    资源链接:https://www.bilibili.com/video/BV1r4411 正文内容 人类语言声音:语音学和音韵学( Phonetics and phonology) (课件内容,不是很 ...

  8. cs224n学习笔记 03:Subword Models(fasttext附代码)

    课程内容 语言学的一点小知识 词级字符级模型 n-gram思想 FastText模型 1 .人类语言声音:语音学和音系学 语音学是音流,这是属于物理层面的东西 词法学:一个n-grams的代替方案 在 ...

  9. Task 3: Subword Models

    1.人类语言的声音:语音和语音学 语音是声音流–毫无争议的"物理" 语音学假设一小部分或几组独特的类别单元:音素或独特特征 也许是普遍的类型学,但特定语言的实现 类别感知的最佳证据 ...

最新文章

  1. Eclipse AST 实现一个类信息统计小程序
  2. python有几个系列_python系列1-就业篇
  3. 数据结构06树和二叉树
  4. echarts柱状图的数据差距过大影响美观
  5. Javascript第五章改变CSS样式节点两种方法,制作导航背景切换效果第十课
  6. 《概率统计简明教程》
  7. 2022届秋招的总结与体会
  8. Linux与Windows分区格式详解
  9. TVB十大女星比美十大名花
  10. pb通过摄像头拍照并保存到sqlserver中
  11. 利用飞书来实现信息存储和在线远程预览
  12. MethodIntrospector工具类使用
  13. ECharts之类型3D(map,bar3D,scatter3D)
  14. 毕业设计 基于stm32的火灾报警系统设计与实现 - 单片机 物联网
  15. Pikachu靶场-SQL注入-搜索型注入过关步骤
  16. 什么是平均值 (Average)?
  17. Java泛型类,方法使用,Java继承的歪解
  18. (附源码)ssm+mysql+基于ssm协同过滤推荐算法的电影院购票系统 毕业设计131124
  19. 神盾特工hive_《神盾局特工》第四季剧情:黛西黑化?
  20. 用::after写背景

热门文章

  1. Linux下使用df与du命令查看磁盘空间
  2. EightCap易汇:美元指数成分组成是什么?美元指数有什么作用?
  3. 有容乃大:楚庄王(第二篇
  4. 赢在测试2:中国软件测试专家访谈录
  5. python实习——03
  6. 深度学习小白如何看懂神经网络模型/图?
  7. 百度Al在线语音合成(简单版)
  8. logback中logger的 additivity 属性
  9. Mysql学习笔记(全)
  10. 稳定性全系列(二)——如何做线上全链路压测