视学算法报道  

编辑:技术组

【新智元导读】近日,微软最新的第5代图灵模型(T-NLRv5)同时问鼎SuperGLUE和GLUE两个排行榜,并且在GLUE基准的MNLI和RTE上首次实现了和人类相当的水平!

SuperGLUE以及GLUE榜单的第一名又易主了!

近日,最新的微软图灵模型(T-NLRv5)在SuperGLUE和GLUE排行榜上又重新夺回第一。

值得注意的是,T-NLRv5在GLUE基准的MNLI和RTE两项任务上首次实现了和人类相当的水平,而这两项任务也是之前的NLP模型在GLUE上一直没有达到人类水平的任务。

SuperGLUE排行榜,T-NLRv5位居榜首

此外,T-NLRv5在减少50%的参数和预训练计算成本的情况下达到了和其他模型相当的效果。

GLUE排行榜,T-NLRv5位居榜首

图灵-自然语言表示模型(T-NLRv5)整合了微软研究院、Azure AI和微软图灵的最佳建模技术。其中,这些模型使用了基于FastPT和DeepSpeed的高效训练框架来进行大规模的预训练。

T-NLRv5的作者之一是微软研究院副总裁高剑峰,他同时也是微软研究院的杰出科学家,IEEE Fellow,ACM Distinguished Member。

高剑峰主要领导深度学习小组,剑指自然语言和计算机视觉领域的SOTA模型,比如NLP领域的MT-DNN,UniLM,DeBERTa和CV领域的OSCAR,VIVO,VinVL模型都是出自他的研究团队。

模型结构

基于「COCO-LM」,T-NLRv5融合了ELECTRA模型和语言纠正模型预训练的优点。

NLRv5通过「辅助模型」来破坏输入的文本序列并产生对抗性信息,而主模型则使用纠正性语言模型任务进行预训练,即检测和纠正被辅助模型替换的标记。

https://arxiv.org/pdf/2102.08473.pdf

T-NLRv5还使用了为开发早期T-NLR版本而优化的训练数据集和数据处理管道DeBERTa和UniLM,以及其他预训练研究工作的优化,如TUPE。

T-NLRv5的模型结构

T-NLRv5的另一个关键特点是可以在较小的规模下保持模型的有效性,不管是几亿参数,还是有几十亿参数。

此外,通过禁用辅助模型中的dropout,使辅助模型的预训练和主模型训练数据的生成能够在一个过程中完成。

同时,禁用COCO-LM中的顺序对比学习任务可以减少计算成本,从而实现训练更深的Transformer网络。

COCO-LM

COCO-LM首次于2月16日上传至arxiv,10月27日论文又更新了内容。文中提出了一种新的预训练模型的框架,涉及到之前提到的辅助模型。

模型名字中的两个CO也代表了两个创新点:

1. COrrecting Language Modeling (CLM):

模型的灵感来自于ELECTRA预训练模型的对抗思想, 引入一个生成器G和一个判别器D,其中生成器就是经过MLM方法训练后的Transformer,判别器D用来判断输入中的每个token是否由生成器生成。

ELECTRA使用的预训练方法也称为RTD(replaced token detection),在实验中性能总是要比MLM更好。RTD首先使用一个生成器预测句中被mask掉的token,接下来使用预测的token替代句中的[MASK]标记,然后使用一个判别器区分句中的每个token是原始的还是替换后的。

和ELECTRA不同的是,COCO-LM模型在CLM Head中引入了一个语言模型层,还有一个二元分类的可训练copy机制,在训练时采用多任务的方式同时训练这两个任务,训练后模型能够同时利用MLM和ELECTRA的优势。

2. Sequence COntrasting Learning(SCL):

模型还引入了对比学习的思想,对比学习的主要方法是对齐同一数据的不同视角(view)

,并且让不相关的样本尽可能远离。在CV领域,同一数据的不同视角主要由数据增强(如旋转、裁切、模糊等)来做,所以模型能够识别变换后的图像,从而增加了模型鲁棒性。

在自然语言中,不同位置的[MASK]实际上也相当于是同一数据的不同视角,例如对应图片的裁切操作,文本可以裁切掉10%来保留句子的主要语义,裁切后的文本作为对比学习过程中的正例,其他随机文本作为负例。

虽说COCO-LM模型的灵感一部分来自于ELECTRA,但COCO-LM预训练所用的GPU小时数要比ELECTRA少了近50%,并且性能没有任何损失。

COCO-LM的第一作者孟瑜,目前在伊利诺伊大学厄巴纳-香槟分校(UIUC)的攻读博士。

主要研究方向为利用自监督、无监督和弱监督的文本挖掘技术来组织和挖掘文本数据。

他分别在2017年和2019年获得UIUC的学士和硕士学位,GPA全部为4.0满分。

2013-2015年期间就读于北京邮电大学应用物理专业信息与通信基础科学类理科实验班。

预训练规模+++

训练10亿个参数的神经模型在时间和计算成本上都是非常昂贵的。这产生了一个漫长的实验周期,并减慢了科学发展的速度。

在训练T-NLRv5时,团队利用以下两种方法可以提高其扩展效率,来确保模型参数和预训练计算的最佳使用:

1. 为混合精度定制的CUDA内核

通过使用为快速预训练(FastPT)而开发的定制的CUDA内核,可以优化混合精度(FP16)预训练的速度。

这不仅使模型的训练和推理效率显著提高了20%,而且在混合精度训练中提供了更好的数值稳定性。而后者正是对具有数十亿参数的语言表示模型进行预训练时最重要的需求之一。

2. ZeRO优化器

当把T-NLRv5扩展到数十亿个参数时,团队引入了DeepSpeed的ZeRO优化器技术,在多机并行预训练过程中减少了预训练模型的GPU内存占用。

具体来说,T-NLRv5 XXL(54亿)版本使用了ZeRO优化器阶段1(优化器阶段划分),这使GPU内存占用减少了5倍。

效益+效率同时SOTA

通过上述改进,T-NLRv5在不同的模型规模和预训练计算成本下都达到SOTA。

在MNLI(GLUE上最稳定的任务之一)测试中,参数或计算步骤大大减少的T-NLRv5变体,依然优于之前预训练成本更大的模型:

T-NLRv5 Base在使用50%的参数时,性能就超过了RoBERTa Large。

4.34亿参数的T-NLRv5 Large,表现与DeBERTa XL(15亿参数)相当,并超过了拥有39亿参数的Megatron。

不同模型的MNLI性能对比

此外,T-NLRv5还显著提高了预训练的效率:在相同的训练语料和计算环境下,只需40%的预训练步骤就可以达到XL模型T-NLRv4-1.5B的精度。

T-NLRv5在不同预训练步骤下的MNLI性能

其中,Base和Large的参数递增来自于128K词汇的使用。

模型配置

模型稳健性

由于测试样本与训练数据的区别巨大,因此稳健性对于一个模型在测试中的表现来说非常重要。在这项工作中,团队使用了两种方法来提高T-NLRv5适应下游任务的稳健性:

  1. 通过PDR(后置差分正则化)来增强模型的鲁棒性,该方法在模型训练期间对干净输入和嘈杂输入之间的模型后置差分进行正则化。

  2. 使用多任务学习,如在多个NLU任务中学习表征来提高模型稳健性的多任务深度神经网络(MT-DNN)。其不仅利用了大量的跨任务数据,而且得益于正则化效应,还可以产生更多的通用表征,从而适应新的任务和领域。

由此,T-NLRv5 XXL模型在MNLI上的测试准确率首次达到了人类的同等水平(92.5对92.4),这是GLUE上信息量最大的任务,同时只使用了一个模型和单一任务微调。

MNLI Dev不匹配的例子,任务是预测前提句是否与假设相联系/相矛盾或中性

出乎意料的是,在一些相当困难的例子中,T-NLRv5 XXL模型成功地做出了正确的预测,而论文的其中一个作者则判断错误。

T-NLRv5在SuperGLUE和GLUE排行榜上进一步超越人类的表现,再次将NLP模型的水平带到一个新的层次,未来通过不断改进这些模型,还可以带来更智能的基于语言的AI产品体验。

参考资料:

https://www.microsoft.com/en-us/research/blog/efficiently-and-effectively-scaling-up-language-model-pretraining-for-best-language-representation-model-on-glue-and-superglue/

点个在看 paper不断!

SuperGLUE和GLUE双料冠军!图灵T-NLRv5:MNLI和RTE首次达到人类水平相关推荐

  1. 全球权威声纹识别竞赛斩获双料冠军 网易AI Lab智能技术领先国际

    允中 发自 凹非寺 量子位 报道 | 公众号 QbitAI 中国力量,又双叒夺冠了. 这一次,是在全球规模最大.最全面的语音顶会INTERSPEECH 2020上. 挑战比拼内容,则是当前语音研究领域 ...

  2. 如何攻克目标检测?百度全球顶级会议双料冠军团队有话说!

    计算机视觉最火方向是什么? 当然是目标检测啦! 目标检测,是计算机视觉领域的核心问题之一,近两年全球顶会的相关论文达上百篇,受到越来越多的人关注.无论是做人脸识别.自动驾驶.文字检测.人机交互,都离不 ...

  3. 如何打造顶级目标检测算法?百度官方揭秘 ECCV2020 双料冠军的理论与实践

    计算机视觉最火方向是什么? 当然是目标检测啦! 目标检测,是计算机视觉领域的核心问题之一,近两年全球顶会的相关论文达上百篇,受到越来越多的人关注.无论是做人脸识别.自动驾驶.文字检测.人机交互,都离不 ...

  4. vex机器人 亚洲公开赛_VEX机器人亚洲公开赛,乐博乐博学员勇夺双料冠军!

    原标题:VEX机器人亚洲公开赛,乐博乐博学员勇夺双料冠军! 2019年2月21-24日, 2018-2019赛季VEX 机器人亚洲公开赛在中国杭州湾高端教育装备产业城隆重举办. 历经四天的角逐,乐博乐 ...

  5. 2月全国IDC品牌关注指数:中国万网夺双料冠军

    IDC评述网(idcps.com)03月10日报道:根据IDC评述网最新数据显示,2014年2月全国IDC品牌关注指数TOP10已出炉,排名对比1月份,无发生变化,第一依旧是中国万网,并且它的涨幅在前 ...

  6. ECCV2020双料冠军团队,带你7日攻克目标检测

    计算机视觉最火方向是什么? 当然是目标检测啦! 目标检测,是计算机视觉领域的核心问题之一,近两年全球顶会的相关论文达上百篇,受到越来越多的人关注.无论是做人脸识别.自动驾驶.文字检测.人机交互,都离不 ...

  7. 助力 VR/AR 等复杂图像场景极致高清,火山引擎夺得 NTIRE 大赛双料冠军

    动手点关注 干货不迷路 近日,CVPR Workshop 下属的 NTIRE2023大赛公布比赛结果,在双目超分双三次插值保真赛道和 360° 全景图像超分赛道上,火山引擎多媒体实验室凭借自主研发的算 ...

  8. 清华大学参赛计算机集群,清华学生超算团队再获双料冠军

    清华学生超算团队再获双料冠军 本次决赛共有来自世界各地的13支队伍参赛,清华代表队由张晨.钟闰鑫.陈嘉杰.王雨田.翟明书.宋泽宇6名本科生组成,指导教师为计算机系助理研究员韩文弢和副教授翟季冬.计算机 ...

  9. AI在这张“问卷”上首次超越人类,SuperGLUE被微软谷歌两家“攻破”

    晓查 发自 凹非寺  量子位 报道 | 公众号 QbitAI 自然语言理解(NLU)迎来新的里程碑. 在最新的NLU测试基准SuperGLUE中,人类首次被AI超越了. SuperGLUE相比&quo ...

最新文章

  1. sharepoint 场帐号修改密码
  2. cmake跨平台编译之判断操作系统平台、32位64位系统
  3. iTerm2多个窗口同时输入命令
  4. 设计模式(创建型)之原型模式
  5. python处理文件错行_打印当前python文件错误行
  6. Git本地仓库文件的创建、修改和删除
  7. 钉钉 ISV 应用开发的一些心得
  8. 面向对象之自定义数据控件
  9. 解决办法:apt: 未找到命令
  10. 微信小程序生成海报图片 小程序生成海报教程
  11. 计算机毕业设计ssm火车站售票管理系统
  12. vs使用中遇到的问题与插件
  13. 利用计算机Tracert,计算机网络 Tracert 命令
  14. 中文ISBN公开信息查询接口
  15. 25种让你精力充沛的方法
  16. android的shape(四周边框为灰色)
  17. typora+PicGo-Core+smms上传图床
  18. PS插件-人像处理美颜磨皮瑕疵修复套装Retouch4me
  19. 社工攻击@斯拉夫字母
  20. 【编程练习】小强去春游

热门文章

  1. Swift从零开始学习_08(代理协议传值)
  2. POJ - 3538 - Domestic Networks
  3. 参考答案:03 向量空间
  4. 技术图文:如何在Python中定义二维数组?
  5. 【数据结构】顺序表的应用(2)(C语言)
  6. 英伟达推出全球首个元宇宙平台,豪砸数亿是为什么?
  7. 知乎 CTO 李大海:创业公司如何拥抱开源
  8. 码农新机会!2019-2020行业调查报告出炉,这个领域程序员缺口很大!
  9. 马斯克脑机接口、BrainOS相继发布,不努力也能有出路了
  10. 昨天,我用 Python 写了一个婚介模型