视学算法报道

机器之心编辑部

DeepMind 连发三篇论文,全面阐述大规模语言模型依然在进展之中,能力也在继续增强。

近年来,国内外各大 AI 巨头的大规模语言模型(large language model,LLM)一波接着一波,如 OpenAI 的 GPT-3、智源研究院的悟道 2.0 等。大模型已然成为社区势不可挡的发展趋势。

然而,当前语言模型存在着一些问题,比如逻辑推理较弱。那么,我们是否可以仅通过添加更多数据和算力的情况下改进这些问题呢?或者,我们已经达到了语言模型相关技术范式的极限?

今日,DeepMind「一口气」发表了三篇论文,目的之一就是解决当前语言模型存在的问题。DeepMind 得出的结论是进一步扩展大规模语言模型应该会带来大量的改进。此前在一次电话简报会上,DeepMind 研究科学家 Jack Rae 表示,「这些论文的一个关键发现是大规模语言模型依然在进展之中,能力也在继续增强。这个领域并没有停滞不前。」

博客地址:https://deepmind.com/blog/article/language-modelling-at-scale

这三篇论文的主题分别如下:

  • 一个具有 2800 亿参数的 transformer 语言模型 Gopher;

  • 语言模型带来的道德和社会风险及危害;

  • 通过检索数万亿 token 来改进语言模型的新方法 RETRO。

本文机器之心将对大模型 Gopher 和 RETRO 模型进行简单介绍。

Gopher:2800 亿参数,接近人类阅读理解能力

DeepMind 用一篇 118 页的论文介绍了全新的语言模型 Gopher 及其 Gopher 家族,论文作者也差不多达到 100 人。

论文地址:https://storage.googleapis.com/deepmind-media/research/language-research/Training%20Gopher.pdf

在探索语言模型和开发新模型的过程中,DeepMind 探索了 6 个不同大小的 Transformer 语言模型,参数量从 4400 万到 2800 亿不等,架构细节如表 1 所示。其中参数量最大的模型被命名为 Gopher,具有 2800 亿参数,他们并将整个模型集称为 Gopher 家族。这些模型在 152 项不同的任务上进行了评估,在大多数情况下实现了 SOTA 性能。此外,DeepMind 还提供了对训练数据集和模型行为的整体分析,涵盖了模型规模与偏差等。最后,DeepMind 讨论了语言模型在 AI 安全和减轻下游危害方面的应用。

DeepMind 采用自回归 Transformer 架构为基础,并进行了两处修改:将 LayerNorm 替换为 RMSNorm ;使用相对位置编码而不是绝对位置编码。此外 DeepMind 使用拥有 32000 个词汇量的 SentencePiece 对文本进行 token 化,并使用字节级 backoff 来支持开放词汇模型。

训练

DeepMind 使用 Adam 优化器,所有模型的训练共有 3000 亿个 token,采用 2048token 上下文窗口方法。在训练的前 1500 step 中,学习率从 10^−7 增加到最大,之后采用 cosine schedule 再将学习率衰减到 1/10。随着模型尺寸的增加,研究者会相应的降低最大学习率并增加每 batch 中的 token 数量,如表 1 所示。

DeepMind 结合了 bfloat16 数字格式来减少内存并增加训练吞吐量。小于 7.1B 的模型使用混合精度 float32 参数和 bfloat16 激活进行训练,而 7.1B 和 280B 使用 bfloat16 激活和参数。

训练基础设施

DeepMind 采用 JAX 来构建训练和评估的代码库。特别地,该研究使用 JAX 的 pmap 转换来提高数据和模型并行性,所有模型的训练和评估是在 TPUv3 芯片上进行的。此外,DeepMind 还采用了优化器状态分区、模型并行性和 rematerialisation 来划分模型状态并减少激活,因此这种方法适合 TPU 内存。

DeepMind 发现 TPUv3 具有快速跨芯片通信的能力,因此数据、模型并行性在 TPUv3 上的开销都很低,并且在训练 Gopher 时仅产生 10% 的开销。因此,该研究发现,在训练规模超过 1024-chip pod 之前,TPU 无需进行 pipelining 操作,这大大简化了中型模型的训练。

训练数据集

DeepMind 在 MassiveText 上训练 Gopher 模型家族,MassiveText 包括网页、书籍、新闻和代码等文本,包含约 23.5 亿个文档, 10.5 TB 的文本量。表 2 详细列出了该数据集。

结果

DeepMind 深入调查了这些不同大小模型的优缺点,强调扩展模型会提高其性能——例如,在阅读理解、事实核查和有害语言识别等领域。

该研究在 152 个任务中对 Gopher 及其家族模型进行了性能评估。DeepMind 将这些结果与 SOTA 语言模型(LM 性能的 124 个任务)、使用特定任务数据的监督方法、人类专家性能进行了比较。以下摘取了一些主要结果。

例如,在逻辑推理和常识性任务中的性能比较:

按类别划分的海量多任务语言理解 (MMLU) 基准测试性能。Gopher 在几个类别上优于之前的工作。

在这项研究中,研究者发现 Gopher 在一些关键任务上的能力超过了当前的语言模型,包括大规模多任务语言理解 (MMLU) 基准。在一项任务上,Gopher 展现出了重大进展,媲美人类专家的水准。

除了对 Gopher 进行定量评价外,DeepMind 的研究者还通过直接互动的方式对模型进行了测验。结果表明,当 Gopher 被提示进行对话互动 (比如在聊天中) 时,该模型有时可以表现出令人惊讶的连贯性。

在这里,Gopher 可以讨论细胞生物学并提供正确的引用来源,即使此前尚未进行过具体对话的微调。这项研究还详细描述了几种不同模型大小的故障模式,其中包括重复倾向、常规偏见反映以及错误信息传播。

对语言模型基准测试,DeepMind 在图 2 中扩展了 Gopher 与当前 178B SOTA 模型 Jurassic-1 和 175B GPT-3 的相对性能结果。结果表明 Gopher 在 19 项任务中有 8 项没有超过 SOTA 技术,尤其是在 Ubuntu IRC 和 DM Mathematics 上表现不佳。

如图 4 所示, Gopher 在绝大多数任务上都表现出了性能提升——只有在 16 个任务上(总共 152 个任务)的性能提升为零。相比之下,在 57 个任务有小幅改进,相对性能提升高达 25%,在 79 个任务有超过 25% 的显着改进。

这种类型的分析是重要的,理解和记录故障模式可以深入了解大语言模型是如何产生下游危害的,也提示了研究中的缓解方法应该集中在哪些方面来解决这些问题。

RETRO:带有互联网规模检索的高效训练

另一篇论文是 DeepMind 在 Gopher 的基础上,提出了一种改进的语言模型架构。该架构降低了训练的资源成本,并使模型输出更容易追踪到训练语料库中的来源。

论文地址:https://storage.googleapis.com/deepmind-media/research/language-research/Improving%20language%20models%20by%20retrieving.pdf

具体而言,该研究提出了一种检索增强的自回归语言模型 Retrieval-Enhanced Transformer (RETRO) ,使用互联网规模的检索机制进行预训练。受大脑在学习时依赖专用记忆机制的启发,RETRO 能够有效地查询文本段落以改进其预测。通过将生成的文本与 RETRO 生成所依赖的段落进行比较,可以解释模型做出某些预测的原因以及它们的来源。此外,研究者还发现该模型能够获得与常规 Transformer 相当的性能,参数少一个数量级,并在多个语言建模基准上获得 SOTA 性能。

该研究设计的检索增强架构能够从具有数万亿个 token 的数据库中检索。为此,该方法对连续 token 块(chunk)进行检索,而非单个 token,这样借助线性因子减少了存储和计算需求。

该方法首先构建了一个键值对(key-value)数据库,其中值存储原始文本 token 块,键是 frozen Bert 嵌入(Devlin et al., 2019)。通过使用 frozen 模型来避免在训练期间定期重新计算整个数据库的嵌入。

然后将每个训练序列分成多个块,这些块通过从数据库中检索到的 K 最近邻进行扩充。编码器 - 解码器架构将检索块集成到模型的预测中,RETRO 的架构如下图所示。

如下图所示,研究者用实验数据表明该方法能够很好地适应不同的模型大小和数据集大小。

该研究还在问答任务上评估比较了 RETRO 模型和其他几种模型的性能,结果如下表所示。

文章部分内容来源:https://www.theverge.com/2021/12/8/22822199/large-language-models-ai-deepmind-scaling-gopher

© THE END

转载请联系机器之心公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

点个在看 paper不断!

增大模型依然有用,DeepMind用2800亿参数的Gopher,测试语言系统极限相关推荐

  1. 开源高性能 RISC-V 处理器“香山”国际亮相;Apache Log4j 远程代码执行漏洞;DeepMind 拥有 2800 亿参数的模型 | 开源日报

    整理 | 宋彤彤 责编 | 郑丽媛 开源吞噬世界的趋势下,借助开源软件,基于开源协议,任何人都可以得到项目的源代码,加以学习.修改,甚至是重新分发.关注「开源日报」,一文速览国内外今日的开源大事件吧! ...

  2. DeepMind一键三连,强推「地鼠」语言模型!只要2800亿参数就能刷SOTA

      视学算法报道   编辑:好困 LRS [新智元导读]最近,跨界交流.交叉研究特流行.这不,深度学习大佬DeepMind也来插手语言模型了,论文直接一键三连.全新「地鼠」大模型,只要2800亿参数就 ...

  3. 解密万亿参数M6模型预训练背后的分布式框架Whale

    简介: 最近,阿里云PAI团队和达摩院智能计算实验室一起发布"低碳版"巨模型M6,大幅降低万亿参数超大模型训练能耗.借助我们自研的Whale框架仅使用480卡GPU,即训练出了规模 ...

  4. 交互式多模型_26亿参数,智源、清华开源中文大规模预训练模型

    近日,北京智源人工智能研究院和清华大学研究团队联合发布了以中文为核心的大规模预训练语言模型 CPM-LM,参数规模达 26 亿,预训练中文数据规模 100 GB. 26亿参数,智源.清华开源中文大规模 ...

  5. 让预训练语言模型读懂数字:超对称技术联合复旦知识工场等发布10亿参数BigBang Transformer[乾元]金融大规模预训练语言模型

    目录 1.通用大模型的缺陷 2.专注于融合训练时序-文本跨模态的预训练模型算法架构 3.学术和工业界覆盖最完整,规模最大的金融投资类数据集 4.创新的预训练方法可大幅提高语言模型准确度:Similar ...

  6. 微信开源「派大星」:4000元游戏电脑能带动7亿参数GPT!

    来源:量子位 一听到训练大模型,是不是第一感觉就是贵.烧钱.玩不起? 但我说,一台4000多块钱的游戏电脑,谁都能训练上亿参数的大模型呢? 别不信,这是真的. 而这就归功于微信AI团队,最近推出的一款 ...

  7. 5300亿参数的「威震天-图灵」,微软、英伟达合力造出超大语言模型

    在微软和英伟达的共同努力下, Turing NLG 17B 和 Megatron-LM 模型的继承者诞生了:5300 亿参数,天生强大,它的名字叫做「Megatron-Turing」. 机器之心报道, ...

  8. 大大刷新记录!Swin Transformer v2.0 来了,30亿参数!

    关注公众号,发现CV技术之美 本文转载自 微软研究院AI头条 编者按:2021年,获得 ICCV 最佳论文奖的 Swin Transformer,通过在广泛的视觉问题上证明 Transformer 架 ...

  9. 30亿参数,华为云发布全球最大预训练模型,开启工业化AI开发新模式

    本文分享自华为云社区<HDC.Cloud 2021 | 华为云发布全球最大预训练模型,开启工业化AI开发新模式>,原文作者:技术火炬手 . 4月25日,华为云发布盘古系列超大规模预训练模型 ...

最新文章

  1. 找不到具有指定ID的对话框类解决方法
  2. 如何使用Proxy模式及Java内建的动态代理机制
  3. aws使用技巧_AWS:避免那些“神圣的法案”时刻的一些技巧
  4. Tomcat启动时自动加载Servlet
  5. R语言学习 - 非参数法生存分析
  6. 【CSS】学习笔记3 段落设置
  7. POJ 3090 (欧拉函数) Visible Lattice Points
  8. python最小生成树算法_最小生成树:Kruskal算法及python实现
  9. idea插件JRebel激活
  10. 【杂谈】网络修复杂谈
  11. 安全教育思维导图模板分享
  12. 你不能访问此共享文件夹,因为你组织的安全策略的解决办法
  13. MOSS开发网站收集
  14. 如何为搭建的网站配置自己的域名 1-2
  15. 四足机器人发展史及机器人盘点
  16. PTA 7-2 USB接口的定义(接口、接口变量、接口数组)
  17. 谷歌“隐私沙盒”引争议,广告业务与用户隐私难平衡?
  18. 347.前K个高频元素 C++
  19. 北京号外科技-Python爬虫工程师
  20. 贪心算法--电影节(openjudge 4151 )

热门文章

  1. 百练 2973 Skew数 解题报告
  2. 电子学会青少年编程等级考试Python一级题目解析12
  3. 股市币市:数据分析与交易所最新公告(20190302)
  4. mysql实训报告_mysql数据库技术》实验报告.doc
  5. 超硬核全套Java视频教程(学习路线+免费视频+配套资料)
  6. 两个使用 Pandas 读取异常数据结构 Excel 的方法,拿走不谢!
  7. 人群距离监测 DeepSOCIAL 最全汉化论文+源码导读
  8. 来体验一把职场人的真实训练,检验你的工程化交付能力!
  9. 最全总结!聊聊 Python 操作PDF的几种方法
  10. 基于人脸关键点修复人脸,腾讯等提出优于SOTA的LaFIn生成网络