BERT有什么局限性?

从XLNet论文中,提到了BERT的两个缺点,分别如下:

  • BERT在第一个预训练阶段,假设句子中多个单词被Mask掉,这些被Mask掉的单词之间没有任何关系,是条件独立的,然而有时候这些单词之间是有关系的,比如”New York is a city”,假设我们Mask住”New”和”York”两个词,那么给定”is a city”的条件下”New”和”York”并不独立,因为”New York”是一个实体,看到”New”则后面出现”York”的概率要比看到”Old”后面出现”York”概率要大得多。

    • 但是需要注意的是,这个问题并不是什么大问题,甚至可以说对最后的结果并没有多大的影响,因为本身BERT预训练的语料就是海量的(动辄几十个G),所以如果训练数据足够大,其实不靠当前这个例子,靠其它例子,也能弥补被Mask单词直接的相互关系问题,因为总有其它例子能够学会这些单词的相互依赖关系。
  • BERT的在预训练时会出现特殊的[MASK],但是它在下游的fine-tune中不会出现,这就造成了预训练和微调之间的不匹配,微调不出现[MASK]这个标记,模型好像就没有了着力点、不知从哪入手。所以只将80%的替换为[mask],但这也只是缓解、不能解决
  • 相较于传统语言模型,Bert的每批次训练数据中只有 15% 的标记被预测,这导致模型需要更多的训练步骤来收敛。

  • 另外还有一个缺点,是BERT在分词后做[MASK]会产生的一个问题,为了解决OOV的问题,我们通常会把一个词切分成更细粒度的WordPiece。BERT在Pretraining的时候是随机Mask这些WordPiece的,这就可能出现只Mask一个词的一部分的情况

例如:

probability这个词被切分成”pro”、”#babi”和”#lity”3个WordPiece。有可能出现的一种随机Mask是把”#babi” Mask住,但是”pro”和”#lity”没有被Mask。这样的预测任务就变得容易了,因为在”pro”和”#lity”之间基本上只能是”#babi”了。这样它只需要记住一些词(WordPiece的序列)就可以完成这个任务,而不是根据上下文的语义关系来预测出来的。类似的中文的词”模型”也可能被Mask部分(其实用”琵琶”的例子可能更好,因为这两个字只能一起出现而不能单独出现),这也会让预测变得容易。

为了解决这个问题,很自然的想法就是词作为一个整体要么都Mask要么都不Mask,这就是所谓的Whole Word Masking。这是一个很简单的想法,对于BERT的代码修改也非常少,只是修改一些Mask的那段代码。

参考链接:

BERT模型的若干问题整理记录 & 思考

BERT---容易被忽视的细节

BERT(二)——BERT 缺陷相关推荐

  1. 【BERT】BERT模型压缩技术概览

    由于BERT参数众多,模型庞大,推理速度较慢,在一些实时性要求较高.计算资源受限的场景,其应用会受到限制.因此,讨论如何在不过多的损失BERT性能的条件下,对BERT进行模型压缩,是一个非常有现实意义 ...

  2. BERT!BERT!BERT!

    从ELMO说起的预训练语言模型 我们先来看一张图: 从图中可以看到,ELMO其实是NLP模型发展的一个转折点,从ELMO开始,Pre-training+finetune的模式开始崭露头角并逐渐流行起来 ...

  3. 自然语言处理NLP之BERT、BERT是什么、智能问答、阅读理解、分词、词性标注、数据增强、文本分类、BERT的知识表示本质

    自然语言处理NLP之BERT.BERT是什么.智能问答.阅读理解.分词.词性标注.数据增强.文本分类.BERT的知识表示本质 目录

  4. NLP之BERT:BERT的简介(背景、改进点、创新点、简介、意义、原理、优缺点、总结与评价)、模型结构、训练过程(MLM、NSP任务的概述)之详细攻略

    NLP之BERT:BERT的简介(背景.改进点.创新点.简介.意义.原理.优缺点.总结与评价).模型结构.训练过程(MLM.NSP任务的概述)之详细攻略 目录 BERT的论文 BERT的概述 BERT ...

  5. Multidex记录二:缺陷解决

    个人博客地址 http://dandanlove.com/ Multidex记录一:介绍和使用 Multidex记录二:缺陷&解决 Multidex记录三:源码解析 记录Multidex缺陷& ...

  6. [Python人工智能] 三十二.Bert模型 (1)Keras-bert基本用法及预训练模型

    从本专栏开始,作者正式研究Python深度学习.神经网络及人工智能相关知识.前一篇文章结合文本挖掘介绍微博情感分类知识,包括数据预处理.机器学习和深度学习的情感分类.这篇文章将开启新的内容--Bert ...

  7. 【BERT-多标签文本分类实战】之二——BERT的地位与名词术语解释

    ·请参考本系列目录:[BERT-多标签文本分类实战]之一--实战项目总览 ·下载本实战项目资源:>=点击此处=< [注]本篇将从宏观上介绍bert的产生和在众多模型中的地位,以及与bert ...

  8. 梳理 BERT和BERT变种

    [BERT]2018-10-11 预训练任务:(1) MLM 带掩码的语言模型 (2) NSP 下一句子预测 [XLNet]2019-6-19 [SpanBERT]2019-7-24 [RoBERTa ...

  9. 系统学习NLP(二十九)--BERT

    补充一份细节的理解:https://zhuanlan.zhihu.com/p/74090249 输入嵌入:https://www.cnblogs.com/d0main/p/10447853.html ...

  10. 智源青年科学家杨植麟:为什么预处理模型XLNet比BERT、RoBERTa更加优越

    在2020年2月11日下午的"智源论坛Live | 青年科学家线上报告会"中,智源青年科学家.Recurrent AI联合创始人杨植麟做了题为<Latest Advances ...

最新文章

  1. 0x32.数学知识 - 约数
  2. 12.C++:strtol() 字符串转长整型函数
  3. “Z世代”崛起,网易云信助力猫耳FM引领声音风潮
  4. Oracle分区表之创建维护分区表索引的详细步骤
  5. Stanford CS230深度学习(六)目标检测、人脸识别和神经风格迁移
  6. Reg Exp正则表达式
  7. Unity3D使用经验总结 编辑器扩展篇
  8. ORACLE 10g下载地址
  9. bcc语料库下载_CCL语料库与BCC语料库各自的特点是什么?
  10. Windows平板 区分当前是鼠标点击还是触摸
  11. NQueen问题(N皇后问题Java)
  12. squid 折叠回源解析
  13. signal 11 linux,signal 11 (SIGSEGV)错误排查
  14. 基于Web的电子商务解决方案(1)(转)
  15. AD18 PCB高亮
  16. robots xctf 攻防世界 web新手练习区
  17. 用python爬取考研信息网_用Python爬取了考研吧1000条帖子,原来他们都在讨论这些!...
  18. rk3568can设置异常
  19. 噪音测试标准:行业标准
  20. 论文笔记之Deep Learning on Image Denoising: An Overview

热门文章

  1. 网页刷新代码(html)两种方式
  2. ASM 无法发现候选磁盘组----grid 11.2.0.3 asm 自检通不过 prvf-5184
  3. Paint的setStrokeCap、setStrokeJoin、setPathEffect
  4. Nginx反向代理——简单体验Nginx反向代理功能
  5. #I. 哆啦A梦的时光机(bfs经典习题)
  6. 基恩士 梯形图转化为c语言,基恩士PLC梯形图和脚本的融合技巧.pdf
  7. 测试如何做到不背锅?
  8. 【ICNP2020】6Fit-A-Part: A Protocol for Physical Distancing on a Custom Wearable Device论文解读
  9. MySQL数据库基本语法
  10. cypher neo4j 简单的增删改查