出品 | AI科技大本营(ID:rgznai100)

BERT之后,新的预训练语言模型XLnet、RoBERTa、ERNIE不断推出,这次,华为诺亚方舟实验室开源了基于BERT的中文预训练语言模型NEZHA(哪吒),寓意模型能像哪吒那样三头六臂、大力出奇迹,可以处理很多不同的自然语言任务。

据介绍,当前版本的NEZHA基于BERT模型,并进行了多处优化,能够在一系列中文自然语言理解任务达到先进水平。

NEZHA模型的实验中采用了5个中文自然语言理解任务,即CMRC(中文阅读理解)、XNLI(自然语言推断)、LCQMC(句义匹配)、PD-NER (命名实体识别任务)、ChnSenti(情感分类)。

研究人员在中文维基百科、中文新闻、百度百科数据上训练NEZHA模型,并且和谷歌发布的中文BERT,以及哈工大和科大讯飞联合发布的BERT-WWM,还有百度发布的ERNIE-Baidu进行了比较。从下表可以看出,NEZHA在XNLI,LCQMC,PeoplesDaily NER,ChnSenti任务上达到了先进水平(SOTA)。表中NEZHA,NEZHA-WWM和NEZHA-Span分别代表由原始的BERT预训练任务训练得到的,加入全词Mask训练得到的以及加入Span预测任务训练得到的NEZHA模型(三者均使用了全函数式相对位置编码)。

GitHub链接:

https://github.com/huawei-noah/Pretrained-Language-Model/blob/master/README.md

论文链接:

https://arxiv.org/abs/1909.00204

此外,诺亚方舟实验室还开源了TinyBERT预训练语言模型。

尽管语言模型预训练(例如BERT)大大改善了许多自然语言处理任务的性能。但是,预训练语言模型通常在计算上昂贵且占用了大量内存,因此很难在某些资源受限的设备上有效执行它们。为了加快推理速度、减小模型大小并同时保持精度,华为研究人员提出了一种新颖的transformer蒸馏方法,该方法是针对基于transformer模型专门设计的知识蒸馏(KD)方法。

通过利用这种新的知识蒸馏方法,可以将BERT中编码的大量知识很好地转移到TinyBERT。此外,他们为TinyBERT引入了一个新的两阶段学习框架,该框架在预训练阶段和特定任务的学习阶段都执行transformer蒸馏方法。该框架确保TinyBERT可以捕获BERT的一般领域知识和特定任务知识。在GLUE基准测试中,TinyBERT相比BERT小7.5倍,比其推理的速度快9.4倍,并且在自然语言理解任务中具有竞争优势。

它在预训练和特定任务的学习阶段都运行了新型的transformer蒸馏方法。TinyBERT学习的概述如下所示:

论文链接:

https://arxiv.org/abs/1909.10351

NEZHA预训练语言模型的三大改进维度

据诺亚方舟实验室的官方资料,NEZHA(哪吒)基于BERT在模型、预训练任务和训练算法三个维度进行了改进。

模型改进:BERT的网络架构是一个多层的Transformer网络,由于Transformer并没有直接考虑输入的token的位置信息,原始的Transformer模型和BERT分别采用了函数式和参数式的绝对位置编码方式,即每一个位置上的输入的token会叠加一个与位置信息相关的一个embedding(这个embedding称为绝对位置编码:absolute position embedding,APE),前者的位置编码是一个与位置相关的函数,后者则是模型参数的一部分,在预训练过程中学到的。

此后,又有工作提出了相对位置编码方式,即在每一层计算隐状态的相互依赖的时候考虑他们之间的相对位置关系,这个相对位置信息表示为一个相对位置编码(relative position embedding,RPE),已有工作均在相对位置编码中加入了可学习的参数。本工作在BERT模型中使用了完全函数式的相对位置编码(相对位置编码没有任何需要学习的参数),实验结果表明该位置编码方式使得模型在各个下游任务上的效果均得到明显提升。

预训练任务:本工作引入了全词Mask技术,即不同于原始的BERT模型Mask单个中文字,该技术在MLM预训练任务中Mask整个词而不是单个字(如下图全词Mask方法Mask了一整个词“华为”),进而提升了任务难度使得BERT学到更多语义信息。

此外,借鉴SpanBERT ,NEZHA模型还引入了Span预测任务,该任务Mask一个连续的Span(例如下图中“机”,“很”,“不”三个字),利用Span前后的两个字的最上层表示(下图中的x3和x7)以及待预测字的位置信息来预测该字,如下图中,待预测字为“不”,Span预测任务会使用x3,x7和“不“”这个字的位置信息(就是x3和x6还有x6和x7之间的相对位置编码)来预测该字,“机”和“很”的预测也是同样的方法。

该方法使得Span前后的字的表示会包含Span中字的语义信息,由于在训练过程中,一个句子会被随机Mask很多次,所以句子中每个字都有机会成为Span的前后字,进而使得各个字学到的表示都会包含周围Span的信息,Span预测任务能够有效提高模型在下游的Span抽取任务(此任务的目标是获取一段文字中目标片段的开始和结束位置)的效果。

训练算法:在训练过程中,采用混合精度训练(Mixed Precision Training)方式,在传统的深度学习训练过程中,所有的变量包括weight,activation和gradient都是用FP32(单精度浮点数)来表示。而在混合精度训练过程中,每一个step会为模型的所有weight维护一个FP32的copy,称为Master  Weights,在做前向和后向传播过程中,Master Weights会转换成FP16(半精度浮点数)格式,权重,激活函数和梯度都是用FP16进行表示,最后梯度会转换成FP32格式去更新Master Weights。

优化器方面使用了LAMB优化器,通常在深度神经网络训练的Batch Size很大的情况下(超过一定阈值)会给模型的泛化能力带来负面影响,而LAMB优化器通过一个自适应式的方式为每个参数调整learning rate,能够在Batch Size很大的情况下不损失模型的效果,使得模型训练能够采用很大的Batch Size,进而极大提高训练速度。在训练BERT的研究中,使用LAMB优化器在不损失模型效果的前提下,Batch Size达到了超过30k,使得BERT的训练时间从3天降到了76分钟。

(*本文为AI科技大本营整理文章,转载请微信联系 1092722531)

精彩公开课

推荐阅读

  • 数学学渣必备!拍照上传,分步求解,微软解题神器拯救你

  • 蚂蚁金服提新概率图模型GLN,正确率提升8.2%,具备可解释性 | NeurIPS 2019

  • 后深度学习时代的一大研究热点?论因果关系及其构建思路

  • LatentFusion:华盛顿大学与英伟达联合提出6D姿态估计新方法

  • 那些打着AI万金油旗号的产品欺骗大众,如何识别?

  • 扛住100亿次请求——如何做一个“有把握”的春晚红包系统

  • 「刷新 CTO」微软与 CSDN 的 CTO 转型思想汇

  • 华为鸿蒙 OS 2020 计划曝光!手机仍然优先用安卓

  • 用象棋的思维趣说 IT 人的职业发展和钱途

  • 你点的每个“在看”,我都认真当成了AI

华为诺亚方舟开源预训练模型“哪吒”,4项任务均达到SOTA相关推荐

  1. 刘群:华为诺亚方舟NLP预训练模型工作的研究与应用 | AI ProCon 2019

    演讲嘉宾 | 刘群(华为诺亚方舟实验首席科学家) 编辑 | Jane 出品 | AI科技大本营(ID:rgznai100) 预训练语言模型对自然语言处理领域产生了非常大的影响,在近期由CSDN主办的 ...

  2. 华为诺亚方舟开源哪吒、TinyBERT模型,可直接下载使用

    点击上方"视学算法",选择"星标"公众号 重磅干货,第一时间送达 来源:机器之心 华为诺亚方舟实验室开源了一批优秀预训练语言模型,性能更好.使用更方便. 昨日, ...

  3. 华为诺亚方舟预训练语言模型NEZHA、TinyBERT开源代码

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 编辑:Sophia 计算机视觉联盟  报道  | 公众号 CVLianMeng 转载于 :华为,专知 [人工智能资源 ...

  4. ACL 2022丨香港大学华为诺亚方舟新工作:生成式预训练语言模型的量化压缩

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 近日,香港大学与华为诺亚方舟实验室在 ACL 2022 上联合发表了 ...

  5. 1亿组图文对,填补中文开源多模态数据集空白!还附带基础模型,来自华为诺亚方舟实验室...

    行早 发自 凹非寺 量子位 | 公众号 QbitAI 华为诺亚方舟实验室开源了第一个亿级中文多模态数据集:悟空. 这个新发布的数据集不仅规模大--包含1亿组图文对,而且质量也很高. 所有图像都是筛选过 ...

  6. 内存占用少,计算速度快!华为诺亚方舟Lab开源即插即用的多用卷积核(NeurIPS 2018)...

    点击我爱计算机视觉标星,更快获取CVML新技术 本文转载自诺亚实验室(ID:Noah_ark_lab). 华为诺亚方舟实验室开源了一种即插即用的卷积核,该项工作发表在NeurIPS 2018上,论文题 ...

  7. 【华为诺亚方舟实验室】2022届毕业生招聘--决策(强化学习)推理方向

    深度强化学习实验室 官网:http://www.neurondance.com/ 论坛:http://deeprl.neurondance.com/ 来源:华为诺亚方舟实验室官微 诺亚方舟实验室(No ...

  8. 【学习求职必备】认真认识一下世界末日那年成立的“华为诺亚方舟实验室”...

    Yolo 计算机视觉爱好者,大连理工大学大四在读,保研至武汉大学 作者 | Yolo 编辑 | Yolo 接着上一篇介绍百度AI研究院之后,今天带大家认识一下国内最神秘的AI研究院--华为诺亚方舟实验 ...

  9. gCastle | 华为诺亚方舟实验室自研的因果结构学习工具链

    文章目录 一.简介和安装 二.算法使用实践 CSDN 叶庭云:https://yetingyun.blog.csdn.net/ 一.简介和安装 gCastle 是华为诺亚方舟实验室自研的因果结构学习工 ...

最新文章

  1. Tensorflow加载预训练模型和保存模型(ckpt文件)以及迁移学习finetuning
  2. 数据结构:下列选项中,不可能是快速排序第2趟排序结果的是(2019年全国试题10)
  3. endnote一打开就自动关闭_【EndNote文献管理】5分钟快速上手Endnote
  4. (6)通过输入参数(测量数据)构建三维体模型
  5. UAT测试和SIT测试的区别
  6. 使用TASSEL学习GWAS笔记(5/6):混合线性模型进行GWAS分析(MLM模型)
  7. Minecraft 1.18.1、1.18.2模组开发 09.MC无双---动画生物实体(Geckolib Entity)
  8. 【宝藏系列】如何解决word选中文字按backspace无法删除的问题
  9. 触发器referencing old as old new as new
  10. Mac Ps cc2017 下载
  11. Linux 安装中文 man 手册
  12. flask中flash(闪现)的使用
  13. 顺序表如何插入元素? 看这里!!
  14. D-Determine the Photo Positio
  15. 生化危机4(来生/恶灵古堡IV)DVD/700M发布
  16. BugkuCTF之分析题之中国菜刀
  17. mysql advisor github_GitHub - zyw/sqladvisor-web: 美团SQLAdvisor SQL优化建议工具的Web版,告别命令行...
  18. 如何检测支付宝名字性别
  19. ubuntu18.04 修改屏幕分辨率
  20. 高效能沟《关键对话》读书笔记PPT模板-优页文档

热门文章

  1. iOS:转载:UIControl的使用
  2. Spring AOP AspectJ Pointcut Expressions With Examples--转
  3. linux 内核 出错-HP 方案
  4. Asp.net开发过程中,我们会遇到很多Exception
  5. 从特斯拉Autopilot看车载计算平台技术挑战与发展趋势
  6. android h5 多图上传源码,JS移动端/H5同时选择多张图片上传并使用canvas压缩图片...
  7. 1 图片channels_深度学习中各种图像库的图片读取方式
  8. Python中的小细节
  9. 介绍ABC 蜂群算法网站
  10. 2018-4-7 进化类算法------1、遗传算法(GA)