https://www.toutiao.com/a6701812430017659396/

2019-06-13 08:55:01

Transformer体系结构模型,特别是 BERT,已经被证明在许多 NLP 任务中是相当有效的,通过在大规模语料库上以非监督方式预先训练的模型进行微调。 Bert 模型以一系列单词作为输入,并产生一系列跨层的词嵌入向量,这些词嵌入向量考虑到了单词出现的上下文。

最近发表的两篇论文[1][2]中,关于为什么 BERT 表现如此之好给出了几何解释。这些论文中的一些重要发现表明:

1.Bert 的词向量输出有着丰富的语言结构编码。 Bert 在为一个句子输出的词嵌入向量中对语法树进行近似编码,这些树可以通过词嵌入向量的线性变换来恢复;

2.Bert 在互补子空间中以词向量编码句法和语义特征;

3.一个词的不同意思有许多表征(由句子上下文决定) ,这些表征在空间上以细粒度的方式分开;

从一个句子的 BERT 词向量中恢复解析树

语言可以看作是由离散的结构组成的-即符号(或单词)序列,而句子的句法结构是由一棵树构成的。 相比之下,神经网络模型对连续数据进行操作并将符号信息转换为高维空间中的向量。 众所周知,这些向量(词嵌入向量)可以在其长度或方向上捕捉语义相似性(例如 word2vec、 fasttext 等)。

最近的发现表明 BERT 词向量输出编码丰富的语言结构。 在一个句子的向量输出中编码的是语法树的几何近似拷贝。 句子中的单词在高维空间中给定了位置,如果我们将这些单词向量进行特定的转换,这些位置之间的欧几里得度量将会映射到语法树距离。 本质上,我们可以恢复句子的语法树(以及带有方向边的依赖树) ,通过使用特定的线性映射转换词向量,然后在词向量之间的距离上找到一个最小生成树[3]。

语法树中的树距离(两个节点之间的树距离是它们之间路径中的边的数量)和欧几里得度量之间的映射(最小生成树中的节点之间的映射是根据词嵌入向量得出的)不是线性的。 两个单词之间的语法树距离对应于提取的欧几里得度量最小生成树中相应节点之间的平方。 第二篇论文给出一个理由,说明它为什么是欧几里得度量的平方。由于树枝的存在,等距(映射保持距离)将一棵树映射到欧几里德空间是不可能的[4]。

来自论文

例如,左边的节点 a 和节点 b 之间的树距离是2,即 d (a,x) + d (x,b)。由于 d (a,b)= d (a,x) + d (x,b) ,在到欧氏空间的等距映射中,a,x,b 必须是共线的(x 必须在连接 a 和 b 的直线上,以保证上述条件成立),对点 a,x和 c,d (a,c)= d (a,x) + d (x,c) ,a,x 和 c 应用相同的观点也必须是共线的。 但这意味着 b= c,这就矛盾了。不过从树到平方距离有一个等距映射(Pythagorean embeddings) ,如上图所示。总的来说就是:

来自论文

一般来说,词嵌入向量表明一个单词的不同意思是分开的,词义消歧就是通过这种分离来实现的。通过上述路线解构模型可能揭示更多的语言结构(比如解析树)或者等价的更多子空间,理解内部的几何形状表示似乎可以潜在地找到改进模型体系结构的方法。

参考

1.https://arxiv.org/pdf/1906.02715.pdf

2.https://nlp.stanford.edu/pubs/hewitt2019structural.pdf

3.https://en.wikipedia.org/wiki/Minimum_spanning_tree

4.https://www.encyclopediaofmath.org/index.php/Isometric_mapping

为何BERT在 NLP 中的表现如此抢眼?相关推荐

  1. 势如破竹!169 篇论文带你看 BERT 在 NLP 中的 2019 年!

    来源: AI科技评论  编译 | JocelynWang 编辑 | 丛末 2019 年,可谓是 NLP 发展历程中具有里程碑意义的一年,而其背后的最大功臣当属  BERT ! 2018 年底才发布,B ...

  2. 从Word Embedding到Bert模型---NLP中预训练发展史

    本文转自张俊林老师,希望加深记忆及理解. 本文的主题是自然语言处理中的预训练过程,会大致说下NLP中的预训练技术是一步一步如何发展到Bert模型的,从中可以很自然地看到Bert的思路是如何逐渐形成的, ...

  3. Google 最强开源模型 BERT 在 NLP 中的应用 | 技术头条

    作者 | 董文涛 责编 | 唐小引 出品 | CSDN(ID:CSDNnews) [CSDN 编者按]Google 的 BERT 模型一经发布便点燃了 NLP 各界的欢腾,Google Brain 的 ...

  4. NLP中的Embedding方法总结

    文章目录 词向量 One-Hot Encoding 学习资料 要点 缺点 Word2Vec 学习资料 要点 负采样(negative sampling)与分层softmax(hierarchical ...

  5. NLP中BERT模型详解

    标题NLP中BERT模型详解 谷歌发表的论文为: Attention Is ALL You Need 论文地址:[添加链接描述](https://arxiv.org/pdf/1706.03762.pd ...

  6. CV和NLP中的无监督预训练(生成式BERT/iGPT和判别式SimCLR/SimCSE)

    文 | Smarter 在之前的文章中讲过unsupervised learning主要分为生成式和判别式,那么unsupervised pretrain自然也分为生成式和判别式.目前CV和NLP都出 ...

  7. NLP中的词向量总结与实战:从one-hot到bert

    写在前面 之前写的关于NLP基础词向量的笔记,这次更新一下.从最简单的one-hot到目前效果惊人的BERT进行整理对比,加深对基础的理解.词向量的表示方法由低级至高级可以分为以下几个部分: Bag ...

  8. 广告行业中那些趣事系列2:BERT实战NLP文本分类任务(附github源码)

    微信公众号:数据拾光者.愿结交更多的小伙伴,一同走人生路. 摘要:上一篇广告中那些趣事系列1:广告统一兴趣建模流程,我们了解了如何为广告主圈人群以及如何刻画用户的兴趣度.要想给用户打标签,我们需要构建 ...

  9. 复旦张奇:如何解决NLP中的鲁棒性问题?

    [关键问题]随着自然语言处理技术的快速发展,研究其中的鲁棒性问题变得日益重要.如果模型是不鲁棒的,在实际使用中就会存在很大的问题.对NLP鲁棒性的研究有利于学术界更加顺利地理解深度学习模型的运行原理, ...

最新文章

  1. 简单电商购物过程(续1)
  2. 光伏业务爆发 同景新能源与信义光能签署103MW订单
  3. 联想打印机 linux驱动怎么安装步骤,如何在MAC系统下安装打印机驱动
  4. hg8245设置无线打印服务器,小编教您设置华为HG8245光纤猫路由器
  5. ubuntu服务器基本安全配置
  6. 新白娘子传奇中掩藏的秘密!!白素贞的身世之谜!
  7. FoveaBox(Beyond Anchor-based Object Detector) 学习笔记
  8. 迈成专转本三毛计算机,念念不忘,必有回响【迈成专转本学员分享】
  9. 使用SSH密钥连接阿里云linux服务器
  10. android编程xml动画,Android中xml设置Animation动画效果详解
  11. js escape()_unescape().html
  12. Xilinx_PetaLinux:Failed to generate...
  13. 人脸检测算法落地详解
  14. 新浪微博OAuth接口实现登录 java版
  15. Population Vector Algorithm(PVA)
  16. 电脑报网站使用盗版软件?
  17. 番外.1.Python高级用法
  18. 关于读懂时序图写时序
  19. Apollo星火计划学习笔记——Apollo路径规划算法原理与实践
  20. hexo使用淘宝镜像CNPM安装插件

热门文章

  1. 深度学习实战讲词嵌入 很好的 NLP电子书
  2. FileInputStream 之read(byte [] b)方法
  3. 相关子查询中exists后select 加数字的理解
  4. 《预训练周刊》第19期:歧义短语的类量子语境性研究、自然语言处理中prompt方法的系统综述...
  5. 连接统计学、机器学习与自动推理的新兴交叉领域——因果科学读书会再起航...
  6. 曾获Jolt大奖,“Python之父”龟叔推荐的书,又双叒叕更新了
  7. 基于Spark的移动用户主要活动地点的挖掘算法实现以及JavaEE技术整合
  8. 原创 | 《相机标定》深入理解原理与实战(一)
  9. 原创 | 人工智能的人文主义,如何让AI更有爱
  10. 使用Keras构建具有自定义结构和层次图卷积神经网络(GCNN)