关注上方深度学习技术前沿”,选择“星标公众号”

资源干货,第一时间送达!

具有92个DGX-2H节点的NVIDIA DGX SuperPOD通过在短短47分钟内训练BERT-Large创下了新纪录。该纪录是通过每个节点上的1472个V100 SXM3-32GB 450W GPU和8个Mellanox Infiniband计算适配器,自动混合精度运行PyTorch来提高吞吐率,并使用本文中的训练方法来实现的。

NVIDIA DGX SuperPOD在短短47分钟内训练BERT-Large,并训练GPT-2 8B,这是有史以来最大的具有8.3Bn参数的Transformer网络。

对话式AI是人类与智能机器和应用程序(从机器人和汽车到家庭助手和移动应用程序)进行交互的重要基础。长期以来,让计算机理解人类语言及其所有细微差别并做出适当响应一直成为AI研究人员的“圣杯”。在由加速计算支持的现代AI技术出现之前,不可能构建具有真正自然语言处理(NLP)功能的系统。

随着大量基于Transformer的语言模型的出现,例如BERT(来自Transformer的双向编码器表示)和10亿多个参数的GPT-2(Generative Pretrained Transformer 2)模型,语言理解任务得到了飞速的发展。

BERT引发了精确语言模型的新浪潮

BERT可针对许多NLP任务进行微调,非常适合进行例如翻译,问答,情感分析和句子分类等语言理解任务。BERT和基于Transformer架构的模型(例如XLNet和RoBERTa)在流行的基准测试(例如SQuAD(用于问答评估)和GLUE(用于跨多种语言的一般语言理解)上能够达到、甚至超过人类。

BERT的一个主要优点是,不需要使用带标签的数据进行预训练,因此可以使用任何纯文本进行学习。这一优势为海量数据集打开了大门,进而进一步提高了最新的准确性。例如,BERT通常在BooksCorpus(8亿个单词)和English Wikipedia(25亿个单词)的上进行预训练,以形成33亿个单词的总数据集。

模型复杂度是基于Transformer的网络的另一个属性,该属性提高了NLP的准确性。比较两种不同版本的BERT可以发现模型大小与性能之间的相关性:BERTBASE创建了1.1亿个参数,而BERT-Large通过3.4亿个参数,GLUE得分平均提高了3%。预计这些模型将继续增长以提高语言准确性。

NVIDIA Tensor Core GPU训练BERT只需47分钟

具有92个DGX-2H节点的NVIDIA DGX SuperPOD通过在短短47分钟内训练BERT-Large创下了新纪录!该纪录是在使用每个节点上的1472个V100 SXM3-32GB 450W GPU和8个Mellanox Infiniband计算适配器,使用自动混合精度运行PyTorch来提高吞吐率,并使用本文中的训练方法来设置的。对于仅访问单个节点的研究人员,配备16台V100的DGX-2服务器可在3天内训练BERT-Large。下表说明了为各种数量的GPU训练BERT-Large的时间,并显示了随着节点数量增加而进行的有效缩放:

单个DGX-2H节点具有2 petaFLOP的AI计算能力,可以处理复杂的模型。大型BERT型号需要大量内存,并且每个DGX-2H节点为此运行的整个DGX SuperPOD群集提供0.5TB的高带宽GPU内存,总共46TB。NVIDIA互连技术(例如NVLink,NVSwitch和Mellanox Infiniband)可实现高带宽通信,从而实现高效缩放。GPU具有强大的计算能力以及对大量DRAM的高带宽访问以及快速互连技术的结合,使NVIDIA数据中心平台成为大幅加速诸如BERT等复杂网络的最佳选择。

GPT-2 8B:有史以来最大的基于Transformer的语言模型

基于Transformer的语言模型的另一类用于生成语言建模。这些模型旨在预测和生成文本(例如,在给出初始段落的文档中写出下一个句子)。最近,具有15亿参数的GPT-2模型表明,缩放到更大的生成尺寸,甚至比BERT使用的数据集更大的未标记数据集,都可以生成产生连贯且有意义的文本的最新模型。

爆炸性的模型复杂性–网络参数数量

为了调查这些庞大的,超过十亿个基于Transformer的网络,NVIDIA Research推出了Project Megatron。这是为最先进的NLP创建最大的Transformer模型的努力。15亿参数的GPT-2模型已扩展为更大的83亿参数Transformer语言模型:GPT-2 8B。使用本地PyTorch在512 GPU上使用8路模型并行性和64路数据并行性对模型进行了训练。GPT-2 8B是有史以来最大的基于Transformer的语言模型,其大小是BERT的24倍,GPT-2的5.6倍。

实验是在NVIDIA的DGX SuperPOD上进行的,该模型的基线模型为12亿个参数,可安装在单个V100 GPU上。在单个GPU上运行此基线模型的端到端训练流水线可达到39 TeraFLOPS,这是该GPU的理论峰值FLOPS的30%。NVIDIA团队通过8路模型并行性在512个GPU上将模型缩放至83亿个参数,NVIDIA团队在整个应用程序中实现了高达15.1 PetaFLOPS的持续性能,与基准相比,缩放效率达到76%。

模型并行性固有地会带来一些开销,与可在单个GPU上运行且不需要任何模型并行性的BERT相比,它会稍微影响缩放效率。下图显示了缩放结果,有关技术细节的更多信息可以在单独的博客文章中找到。

计算性能和扩展效率

GPT-2模型从Reddit链接下载的37GB WebText数据集上进行了训练。下图显示了WebText验证困惑度与不同模型大小的时期数的关系。从经验上我们发现,较大的模型训练更快,并导致更好的结果(较低的验证困惑度)。

在wikitext-103数据集上评估模型时,会观察到类似的行为。与较小的模型相比,增加到83亿个参数导致准确性显着提高,并且维基文本的困惑度为17.41。这超过了Transformer-xl在Wikitext测试数据集上获得的先前结果。但是,最大的83亿参数模型在经过大约六个纪元的训练之后就开始过拟合,这可以通过移至更大规模的问题和数据集来缓解,类似于XLNet和RoBERTa等最新论文中所使用的模型。

Webtext验证困惑度与各种GPT-2模型大小的历程

NVIDIA平台上会话AI的未来

诸如BERT和GPT-2 8B之类的基于Transformer的语言网络对性能的巨大要求,这种组合需要强大的计算平台来处理所有必需的计算,以提高执行速度和准确性。这些模型可以处理大量未标记的数据集,这一事实使它们成为现代NLP的创新中心,并因此成为使用会话AI应用程序的智能助手的选择。

带有Tensor Core架构的NVIDIA平台提供了可编程性,以加速现代AI的全面多样性,包括基于Transformer的模型。此外,DGX SuperPOD的数据中心规模设计和优化与软件库相结合,并且对领先的AI框架提供直接支持,为开发人员提供了无缝的端到端平台,以承担最艰巨的NLP任务。

NVIDIA加速软件中心NGC免费提供持续优化,以加速在多个框架上对GPU进行BERT和Transformer的培训。

NVIDIA TensorRT包括用于在BERT和大型基于Transformer的模型上运行实时推理的优化。要了解更多信息,请查看我们的“会话式AI的实时BERT推理”博客。NVIDIA的BERT GitHub存储库今天有代码来复制此博客中引用的单节点训练性能,并且在不久的将来,该存储库将使用复制大规模训练性能数据所需的脚本进行更新。

???? 更多精彩咨讯,长按识别,即可关注

47分钟,BERT训练又破全新纪录!英伟达512个GPU训练83亿参数GPT-2 8B相关推荐

  1. Graphcore发布IPU-M2000性能测试,训练和推理性能超英伟达!

    在AI芯片领域,英伟达的GPU和谷歌的TPU是世界上仅有的能够处理BERT-Large模型的AI处理器.当一家名为Graphcore的英国创业公司推出IPU智能处理器(Intelligent Proc ...

  2. 英伟达新核弹GPU:4nm制程800亿晶体管,20张即可承载全球互联网流量,全新Hopper架构太炸了...

    丰色 萧箫 发自 凹非寺 量子位 | 公众号 QbitAI 他来了他来了,老黄带着英伟达的最新一代GPU来了. 之前大家猜的5nm错了,一手大惊喜,老黄直接上了台积电4nm工艺. 新卡取名H100,采 ...

  3. 英伟达“暴力碾压”谷歌:53分钟训练完BERT,2.2毫秒完成推理,创下NLP三项新纪录...

    边策 发自 凹非寺  量子位 报道 | 公众号 QbitAI AI硬(he)件(dan)厂商英伟达今天宣布,他们在NLP模型上取得了三大突破,为今后会话AI的落地应用铺平了道路. 英伟达用自己的硬件与 ...

  4. 阿里平头哥首款AI芯片发布!46倍于英伟达P4,刷新全球推理性能最高纪录

    李根 发自 凹非寺  量子位 报道 | 公众号 QbitAI 阿里第一颗芯片诞生! 刚刚,云栖大会现场,阿里巴巴集团CTO.达摩院院长张建锋向全场展示了含光800--阿里第一款AI芯片. 为了这款芯片 ...

  5. AI一分钟 | 英伟达发布最强核弹—无人车AI芯片DRIVE Xavier;百度硅谷首次开放无人车试乘:上车前要先签免责书

    一分钟AI 2018 年国家自然科学基金申请代码出炉,新增人工智能与交叉学科两大领域. 欧洲的无人驾驶汽车软件公司AImotive完成第三轮3800万美元融资,将用于扩大AImotive在全球范围内的 ...

  6. AI一分钟 | 万达网科裁员95%高达5000余人,被爆下一步将转型AI; 英伟达放话了:研究人员放心用,不更新驱动就没啥事儿

    一分钟AI 万达网科裁员95% 后业务将转型AI,朱战备或接班曲德君成为新一任总裁 2020年东京奥运会将首次采用人脸识别系统,将在场馆入口处识别运动员.奥委会官员和记者等身份 意大利机器人公司E-N ...

  7. 不可思议!英伟达新技术训练NeRF模型最快只需5秒,代码已开源

    英伟达将训练 NeRF 模型从 5 小时缩至 5 秒. 你曾想过在 5 秒内训练完成狐狸的 NeRF 模型吗?现在英伟达做到了! 令人不可思议的是,就如谷歌科学家 Jon Barron 在推特上表示的 ...

  8. 训练NeRF只需5秒?!英伟达这项新技术给谷歌研究员整不会了 | 开源

    杨净 发自 凹非寺 量子位 | 公众号 QbitAI "这太疯狂了!" "18个月前,训练NeRF需要5小时-" "2个月前,训练NeRF需要是5分钟 ...

  9. 扔掉老破V100、A100,英伟达新一代计算卡H100来了!

    编 | 泽南.杜伟 源 | 机器之心 黄仁勋:芯片每代性能都翻倍,而且下个「TensorFlow」级 AI 工具可是我英伟达出的. 每年春天,AI 从业者和游戏玩家都会期待英伟达的新发布,今年也不例外 ...

最新文章

  1. Java 多线程使用
  2. 基于libvlc和wxWidgets的简单播放器代码阅读
  3. python 模块学习 hashlib
  4. Java洛谷P1149 火柴棒等式
  5. stm32编码器正反转计数程序_光电编码器接线图分析
  6. 微信小程序原生 地区选择器
  7. String.valueOf() 和 toString的区别
  8. 每天进步一点点《ML - 基于层次的聚类》
  9. 三次握手和四次挥手图解_详解 TCP 连接的“三次握手”与“四次挥手”
  10. IDEA+Maven:cannot download sources
  11. 团队项目第二周 - 需求规格说明书 - 天冷记得穿秋裤队
  12. sql学习练习题_学习SQL:练习SQL查询
  13. Ajax传json对象(jQuery)
  14. 怎么样才可以?批量下载快手播主的全部视频?
  15. 操作系统死锁 四个必要条件
  16. S4 HANA资产期初数据(往年购置、本年购置)整理和导入相关配置-AS91/ABLDT/AB01/FAA_CMP_LDT
  17. MAC配置IOS、Android真机以及appium环境配置,最新版(一)
  18. 【转】免费进入学术数据库
  19. TCP/IP中的拥塞窗口控制机制
  20. 使用word2vec预训练模型提取DNA/RNA序列特征向量

热门文章

  1. [技术文档] 一劳永逸,用USB设备制作多系统引导
  2. 重学《动手学深度学习》转
  3. pandas中的reset_index()
  4. win7 安装wget
  5. RuntimeError: output with shape [1, 28, 28] doesnt match the broadcast shape [3, 28, 28]
  6. java.lang.Instrument 动态修改替换类代码
  7. I210网卡LINUX的mac,linux i210 网卡驱动解读
  8. 新加坡国立大学李千骁:动力学系统与监督学习的关系探索
  9. 迷倒高斯、费马、欧拉的女王,竟是低调的她
  10. cocos2d-x的未来展望