允中 发自 凹非寺
量子位 报道 | 公众号 QbitAI

要说自然语言处理领域当今最fashion的“神兵”,恐怕非预训练语言模型莫属。

2018年BERT横空出世,那真可谓是打开了NLP新世界的大门。

且在这条预训练+微调的修行之路上,各路高手那叫一个百花齐放,各领风骚。

你看XLNet才把BERT从榜单之巅拉下马,那厢RoBERTa便进一步“榨干”BERT性能,重归榜首。

还不仅仅是西方选手轮番登台,文心ERNIE等东方身影也不乏精彩表现。

所以这两年多以来,都有哪些模型表现可圈可点?

今天,诸位看官便不妨随我盘点一番~

且看GLUE兵器谱

如果把预训练语言模型都比喻成兵器,那江湖上自有“百晓生兵器谱”,能给它们排个一二三四五。

GLUE就是自然语言处理领域的权威排行榜之一。

该榜单由纽约大学、华盛顿大学、DeepMind等机构联合推出,一直以来被视作评估NLP研究进展的行业标准。

因此,这GLUE榜首之争,那真是相当的激烈。能够夺魁的“神兵”,自然也各有各的文章。

玄铁重剑 BERT

就说这BERT,甫一亮相,就以预训练+微调的2-Stage模式,直接将GLUE基准拉高7.7%,端的是惊艳了众NLP开发者。

具体而言,BERT是基于Transformer的深度双向语言表征模型。预训练模型只需要增加一个输出层就可以进行微调,从而适应更广泛的新任务。

这种概念上的简练,正可谓是重剑无锋,大巧不工。

鸳鸯剑 XLNet

BERT虽好,但缺点也不是没有。比如预训练时的MASK标记在微调时并不会被看到,会产生忽略两个实体之间关联的情况,产生预训练-微调差异。

自回归模型可以避免这样的问题。于是,“鸳鸯剑”XLNet就登场了——这是一个双向特征表示的自回归模型。

并且,作为一个泛化自回归语言模型,XLNet不依赖残缺数据。

倚天剑 RoBERTa

不过就在XLNet“霸榜”一个月之后,BERT的强势继承人就出现了。

Facebook把BERT改进了一番,进一步“榨干”了BERT的性能,以RoBERTa之名重回巅峰。那架势恰是“倚天一出,谁与争锋”。

简单来说,RoBERTa主要做了这样的修改:更长的训练时间,更大的batch,更多的数据……

单从数据来看,原始的BERT使用了13GB大小的数据集,而RoBERTa使用了包含6300万条英文新闻的160GB数据集。

而在训练时间上,RoBERTa需要使用1024个英伟达V100训练大约1天的时间。

说到这,诸位看官可能会问,那咱们国内的“兵器”们,可曾榜上留名,与这些西方名兵交映生辉啊?

答案是肯定的。

屠龙刀 文心ERNIE

百度家大名文心的二妮(ERNIE),就在最近再夺榜首。

“屠龙宝刀”锋利之极,无坚不摧。而文心ERNIE的锋利之处,在于能融合大规模知识持续学习进化,久经打磨而其刃不卷。

这已经不是“国货之光”ERNIE第一次登顶GLUE。

2019年12月,文心ERNIE就在GLUE首次突破90分大关,甚至超越人类3个百分点,创下榜单新纪录。

此后2020年,文心ERNIE又在语言生成、跨模态理解、多语言理解等方向取得突破,先后提出了ERNIE-GEN、ERNIE-VIL、ERNIE-M等模型,取得10余项SOTA,登顶各方向权威评测的榜首。比如在全球规模最大的语义评测比赛SemEval 2020中,文心ERNIE就一口气斩获5项世界冠军。ERNIE 2.0论文被Paper Digest团队评为国际人工智能顶级学术会议AAAI 2020最具影响力的学术论文。文心ERNIE还获得2020年度中国人工智能学会优秀科技成果、2020世界人工智能大会最高荣誉SAIL(Super AI Leader)大奖等。

那么,取得如此多骄人的战绩,文心ERNIE又有何独家锻造秘方?

文心ERNIE因何登顶NLP兵器谱?

文心ERNIE基于预训练-微调架构,开创性地将大数据预训练与多源丰富知识相结合,通过持续学习技术,不断吸收海量文本数据中词汇、结构、语义等方面的新知识,实现模型效果不断进化,如同人类持续学习一样。

如今登顶GLUE榜首的是ERNIE二代目,它的预训练过程分为两个步骤:

  • 构建无监督预训练任务学习不同维度的知识

  • 通过多任务学习实现不同任务的持续训练

在这个过程中,不同的任务会被有序地加入ERNIE,通过持续多任务学习,使得模型在学习新任务时不会遗忘此前学到的知识。

而对于不同的特定应用任务,文心ERNIE 2.0会使用具体的任务数据微调。

说到此次二代目能在激烈竞争中夺魁的核心秘技,则是层次化学习

这是一种新的学习范式,其中包含了2个学习层次,分别对应“内功”和“外功”。

内功(内层学习)主要是围绕词法、结构、语义3个方面知识构建的预训练任务。

这也是文心ERNIE首次登顶GLUE时就已采用的核心技术。

这里也不妨简单举例说明一下。

在词法层面,以知识掩码任务为例。

文心ERNIE 1.0模型通过对海量数据中的词、实体等先验语义知识的掩码,学习完整概念的语义表示。相较于 BERT 学习原始语言信号,ERNIE 直接对先验语义知识单元进行建模,增强了模型的语义表示能力。到了文心ERNIE 2.0,则使用其作为一个预训练任务。

在结构层面,句子排序任务就是其中之一。

句子之间的顺序反映了它们之间的逻辑顺序以及时间顺序。文心ERNIE 2.0构建了句子排序预训练任务:在训练过程中,随机将一个段落中的N个句子打乱,让模型在N! 的类别中预测正确的顺序。通过该技术使模型学习了文章结构中所蕴含的丰富知识。

在语义层面,以其中的逻辑关系预测任务为例:

要想对语义信息进行更加精细化的建模,短句之间连词表达出的逻辑关系是关键。因此,文心ERNIE 2.0使用短句间的连词构造无监督的关系分类任务,学习句子之间细粒度的逻辑语义知识。

如下图所示:

内功之外,再说外功。外功(外层学习)是模型结构与规模的精细化阶段性学习:

从第一阶段采取循环共享参数Transformer结构,到第二阶段进行逐层结构展开,到最后完全展开成非共享结构。

如此带来的训练收益,包括以下几个方面:

首先,平滑的模型参数展开训练方法,解决了大规模Post-LN(层归一化后置,即Layer Norm在Residual之后)收敛不稳定的问题。

其次,通过不断展开模型的参数,模型的神经元参数规模逐步增加,文心ERNIE能够顺利地吸收规模越来越大的知识输入,进而提升模型学习能力的上限。

与此同时,文心ERNIE神经元在扩大的过程中,引入了百度飞桨自研的Hybrid Sharding分布式训练算法。

该算法通过在单位通信单元中平均分配网络参数和梯度数据,巧妙避开了网络开销瓶颈,能充分利用硬件优势进行同步通信。

这也使得百亿参数规模的模型训练成为可能,训练时间大幅降低。

这把神兵,你也能用

说了这么多,各位看官想来已等得心焦,迫不及待想问那个关键问题:

能不能直接体验效果?

那!是!当!然!

好消息是,百度已经发布了文心ERNIE语义理解平台。

该平台集文心ERNIE预训练模型集、全面的NLP算法集、端到端开发套件和平台服务于一体,提供一站式NLP开发与服务,帮助开发者更简单、高效地定制NLP模型。

近日,平台重点推出了文心ERNIE NLP开发套件专业版旗舰版

在专业版中,就预置了大家期盼已久的文心ERNIE2.0预训练模型,面向专业的学术和产业开发需求提供语义理解能力。

旗舰版则面向工业级应用场景,提供最全面的预训练模型库和算法集,并支持金融、媒体等场景化应用。

根据实验结果,在机器阅读理解、命名实体识别、自然语言推断、语义相似度、情感分析和问答等9项任务上,文心ERNIE 2.0性能均大幅超过BERT。

同时,专业版开发套件还配套了多种NLP经典算法网络,支持文本分类、短文本匹配、序列标注和阅读理解等典型文本处理任务。

基本上,从数据预处理到模型训练,再到模型的预测均可一站体验。

想要试试的话,直接戳进文末文心ERNIE官网,申请下载即可。

说起来,两度登顶GLUE,刷榜各大榜单,在国产预训练“兵器”里,文心ERNIE还是第一个。

不过,纵观GLUE榜单,就会发现以ERNIE为首,越来越多made in China的神兵利器,都在不断突破,书写自己的篇章。

也正是在开放共享的氛围之中,中国的NLP力量已悄然发展、壮大,走向了世界舞台中央。

那么,要来体验一下吗?

文心ERNIE官网:

https://wenxin.baidu.com/wenxin/sdk

—  —

本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。

点这里????关注我,记得标星,么么哒~

加入AI社群,拓展你的AI行业人脉

量子位「AI社群」招募中!欢迎AI从业者、关注AI行业的小伙伴们扫码加入,与50000+名好友共同关注人工智能行业发展&技术进展

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见~

NLP玩得溜,「兵器」得趁手:GLUE排行第一的那种,了解下?相关推荐

  1. 你在小时候玩过哪些「恶心」的游戏?

    转载自:糗事百科用户名:晓来雾沾衣 https://www.qiushibaike.com/article/119983484 把一副珍藏的画卷铺开,听我对你诉说一段我的传奇--小时候,家里养了好几只 ...

  2. 金山文档这样玩,效率「狂飙」

    1985年,微软发布了第一代的Excel.现在,Excel成为了许多打工人的必备工具,却也在很多人的日常工作中,带来了海量跨表同步.大批数据对齐的日常繁琐工作,逐渐沦为"表哥"&q ...

  3. MacBook上可以玩的游戏「分手厨房」

    一年一度的「七夕」就快到了,给分享推荐一款我最近在玩的游戏「Overcooked」. 非常适合情侣玩哦

  4. 玩转微信应用号,「小程序」开发实操指南第一弹

    摘要: 怎样将一个「服务号」改造成为「小程序」?全球首个微信应用号开发教程第一弹. 微信应用号(小程序,「应用号」的新称呼)终于来了! 目前还处于内测阶段,微信只邀请了部分企业参与封测.想必大家都关心 ...

  5. 颠覆认知——Redis会遇到的15个「坑」,你踩过几个?

    阅读本文大约需要 20 分钟. 大家好,我是 Kaito. 这篇文章,我想和你聊一聊在使用 Redis 时,可能会踩到的「坑」. 如果你在使用 Redis 时,也遇到过以下这些「诡异」的场景,那很大概 ...

  6. Redis会遇到的15个「坑」,你踩过几个?

    这篇文章,我想和你聊一聊在使用 Redis 时,可能会踩到的「坑」. 如果你在使用 Redis 时,也遇到过以下这些「诡异」的场景,那很大概率是踩到「坑」了: 明明一个 key 设置了过期时间,怎么变 ...

  7. 不同范数下的余弦定理_第06题 | 从源头追溯「余弦定理」amp; 文理科知识点的异同...

    文.理科数学大部分知识点.甚至相关知识点的考查形式都是共同的,甚至往年理科题目过几年就会出现在文科试卷上,反之亦然:「射影定理」是「余弦定理」的直接来源,所以不算超纲知识点. 先发福利:这里有6场「高 ...

  8. Redis 会遇到的「坑」,你踩过几个?

    作者 | Magic Kaito 来源 | 水滴与银弹 这篇文章,我想和你聊一聊在使用 Redis 时,可能会踩到的「坑」. 如果你在使用 Redis 时,也遇到过以下这些「诡异」的场景,那很大概率是 ...

  9. 怎样对流媒体进行压力测试_对node工程进行压力测试与性能分析「干货」

    作者:小黎 转发链接:https://mp.weixin.qq.com/s/WBe7ZLoqFD9UqNusnv_IDA 前言 在系统上线前,为了看下系统能承受多大的并发和并发下的负载情况,常常会先进 ...

最新文章

  1. 基于redis的分布式锁解析
  2. office2010 启动man_Office2010打开慢速度怎么办?
  3. 车牌识别python实现ubuntu_python利用百度云接口实现车牌识别
  4. 开源开放 | 开源立体化漏洞情报知识图谱(四维创智)
  5. Linux学习十七、正规表达式练习题
  6. java中exception作用_java中的异常Exception的划分,以及他们的特性。
  7. 字符串大写字符串转小写js_C ++字符串大写和小写
  8. MapReduce 初学总结
  9. 计算机潮流算法一般采用,计算机潮流计算
  10. excel画正态分布与T分布
  11. 【图像去噪】基于matlab小波变换图像去噪(MSE和SNR)【含Matlab源码 2192期】
  12. win10c盘扩容_系统C盘满了空间不足的扩容?
  13. c语言里strcpy作用是什么,strcpy函数的作用是什么?
  14. 零基础的小白入门,SQL数据库与Python先学哪个更好呢?
  15. 维生素C片剂市场现状及未来发展趋势
  16. springboot(九):定时任务
  17. 关于 Spring AOP (AspectJ) 你该知晓的一切
  18. 支持复制粘贴word图片的KindEditor编辑器
  19. 手Q体验不满意的地方之(3)——个人设置栏
  20. 2016年我所面试过的那些公司

热门文章

  1. 如何识别未使用的CSS定义[关闭]
  2. WPF Viewport3D 解决透视模式时窗体模糊
  3. MySQL数据库之索引的应用
  4. 配置vsftpd的遇到的坑及搭建虚拟账户
  5. 机智云官网用到的库-grid.css我解析
  6. .NET MVC-去掉验证
  7. linux环境下安装tomcat6
  8. ZXing.Net.Mobile无法识别较大的条码
  9. ProxyStrike运行bug解决办法
  10. SQLite的sqlite_master表