编辑 | 泽南、小舟
来源 | 机器之心

不增加算力需求,谷歌总结的指令微调方法能让 8000 万到 5400 亿参数的模型都显著提升性能。

人工智能一个重要的目标是开发泛化能力强的模型。在自然语言处理(NLP)领域中,预训练语言模型在这方面取得了重大进展。这类模型往往通过微调来适应新的任务。

近日,来自谷歌的研究者分析了多种指令微调方法,包括扩展对指令微调的影响。实验表明,指令微调确实可以根据任务数量和模型大小实现良好的扩展,最大到 5400 亿参数的模型都能明显受益,未来的研究应该进一步扩大任务的数量和模型的大小。此外,该研究还分析了微调对模型执行推理能力的影响,结果都是很吸引人的。

由此产生的 Flan-T5 对 1800 余种语言任务进行了指令微调,明显提高了提示和多步推理能力,30 亿参数跑基准就能超过 GPT-3 的 1750 亿参数。

看起来谷歌又为大模型找到了一个能力提升的方向。不过这一研究不仅引来了机器学习社区的欢迎,也有 Gary Marcus 的吐槽:

谷歌的模型为什么把谷歌自己的著名科学家 Geoffrey Hinton 的出生日期搞错了?人家明明是 1947 年出生的老前辈。

论文作者之一的谷歌大脑首席科学家 Quoc Le 赶紧出来圆场:是临时工图片做错了,在论文里 Flan-T5 模型其实没有把 Geoff 的出生年月搞错,有图为证。

顺便说一句,出生于 1963 年的著名 AI 学者是 Jürgen Schmidhuber。

既然出错的不是 AI 模型,让我们看看谷歌的新方法究竟能够为预训练模型带来哪些改变吧。

论文:
Scaling Instruction-Finetuned Language Models

论文地址:
https://arxiv.org/abs/2210.11416

公开模型:
https://github.com/google-research/t5x/blob/main/docs/models.md#flan-t5-checkpoints

该研究使用 540B 参数模型训练 Flan-PaLM,将微调任务的数量增加到 1800 个以上,并包含思维链(CoT;Wei et al., 2022b)数据。经过训练后的 Flan-PaLM 优于 PaLM,在多个基准测试中达到了新的 SOTA。在推理能力方面,Flan-PaLM 能够利用 CoT 和自洽性(self-consistency;Wang et al., 2022c)在大规模多任务语言理解(MMLU; Hendrycks et al., 2020)上实现 75.2% 的准确率。

此外,在一组具有挑战性的开放式生成问题上,Flan-PaLM 的表现明显优于 PaLM,可用性大幅提高。

总体而言,谷歌的这项研究阐明了使用指令微调来提高模型性能的具体方法。

方法

具体来说,该研究主要关注影响指令微调的几个方面,包括:(1)扩展任务数量,(2)扩展模型大小,以及(3)对思维链数据进行微调。

该研究发现具有上述方面的指令微调显著改进了各种模型类(PaLM、T5、U-PaLM)、prompting 设置(零样本、少样本、CoT)和评估基准(MMLU、BBH、 TyDiQA、MGSM、开放式生成)。例如,在 1.8K 任务上进行指令微调的 Flan-PaLM 540B 大大优于 PALM 540B(平均 + 9.4%)。Flan-PaLM 540B 在几个基准测试中实现了最先进的性能,例如在五次 MMLU 上达到 75.2%。

研究者还公开了 Flan-T5 检查点,即使与更大的模型(例如 PaLM 62B)相比,它也能实现强大的少样本性能。总体而言,指令微调是提高预训练语言模型的性能和可用性的通用方法。

▲图 1. 研究人员在 1800 余个任务中对各种语言模型进行了微调,在有 / 缺乏样本(零样本和少样本)以及有 / 没有思维链的情况下进行微调,从而能够在一系列评估场景中进行泛化。

▲图 2. 微调数据包括 473 个数据集、146 个任务类别和共计 1836 个任务。

在数据微调和程序微调过程完成后,研究者根据模型大小对任务的性能来对比规模扩展的影响。首先,对于所有三种模型大小,多任务指令微调与没有微调相比性能有很大提高,增益范围从 9.4% 到 15.5%。其次,增加微调任务的数量可以提高性能。

最后,我们可以看到将模型规模增加一个数量级(8B → 62B 或 62B → 540B)可以明显提高微调和未微调模型的性能。

▲多任务指令微调相对于模型大小(参数量)和微调任务数量及规模扩展对准确率的影响。

▲增加微调数据中的任务数量可以提高 Flan-PaLM 在大多数评估基准上的性能。

研究人员证明了在微调混合中包含九个带有思维链 (CoT) 注释的数据集可以提高推理能力。下表显示 Flan-PaLM 的 CoT 提示能力在四个保留的评估基准上优于 PaLM。

该研究发现对 CoT 数据进行指令微调的另外一个好处是可以实现零样本(zero-shot)推理,模型在没有针对 CoT 的少量样本的情况下就自行产生了推理能力,这可能需要大量工程调教才能正确实现。

▲图 6:PaLM 和 Flan-PaLM 在一组 23 个具有挑战性的 BIG-Bench 任务 (BBH) 上的 zero-shot 性能。Flan-PaLM 需要通过「让我们一步一步思考」指令激活的思想链 (CoT) 生成。

为了展示新方法的通用性,谷歌训练了 T5、PaLM 和 U-PaLM,涵盖了从 8000 万到 5400 亿参数的模型体量范围,发现所有模型都能大幅提升性能。

▲表 5. 指令微调 (Flan) 在其他持续预训练方法之上提高了性能。

经过测试,指令微调大大提高了所有模型类型的归一化平均性能,与非微调模型相比,T5 模型从指令微调中受益最多。这些结果对于某些基准测试来说是相当强的——例如,Flan-T5-XL 只有 30 亿参数,就达到了 47.6% 的 MMLU 分数,超过了 GPT-3 1750 亿参数的 43.9% 分数。

除了 NLP 基准之外,语言模型还能够为开放式问题请求生成长格式答案。在这一方面,标准的 NLP 基准和用于评估它们的自动指标不足以衡量人类的偏好。研究人员对此进行了评估,创建了一个包含 190 个示例的评估集。该评估集包括以零样本方式向模型提出的问题,涉及五个具有挑战性的类别,每个类别 20 个问题:创造力、上下文推理、复杂推理、计划和解释。

对于其中的 60 个示例(来自复杂的推理、计划和解释类别),该研究创建了一个带有思维链触发短语(例如,「让我们一步一步思考」)的变体,作为微调是否进行的另一个评估在 CoT 上启用 zero-shot。除了上述 160 个零样本输入之外,研究中还包括 30 个用于测试少样本能力的输入,这些没有指令微调的强语言模型已被证明在这些方面表现良好。

研究人员认为,指令微调和规模扩展均可以持续提升大语言模型性能,而微调对于推理能力至关重要,其还能泛化模型能力。通过指令微调与其他模型适应技术(例如 UL2R)结合,谷歌在这项工作中提出了最强模型 Flan-U-PaLM。

重要的是,指令微调并不像模型规模扩展一样会大幅增加计算成本,例如对于 PaLM 540B,指令微调只需要 0.2% 的预训练计算,但却可以将跨评估基准的归一化平均值提高 9.4%。使用指令微调的小型模型有时可以胜过没有微调的大模型。

出于这些原因,研究人员建议对几乎所有预训练的语言模型都进行指令微调。

后台回复关键词【入群

加入卖萌屋NLP、CV、搜推广与求职讨论群

[1] https://twitter.com/quocleix/status/1583523186376785921?s=20&t=Gul2Iqz2v19YMR9jAl5n2g

谷歌Flan-T5诞生!1800种语言任务超大规模微调相关推荐

  1. 谷歌开源能翻译101种语言的AI模型,只比Facebook多一种

    大数据文摘出品 来源:VB 10月底,Facebook发布了一款可翻译100种语言的机器学习模型,微软发布了一款能翻译94种语言的模型,谷歌自然也不甘示弱. 继Facebook和微软后,谷歌开源了一种 ...

  2. facebook对话链接_并非里程碑! Facebook的100种语言互译模型夸大宣传遭质疑

    [新智元导读]昨天,Facebook宣布其最新的神经机器翻译模型不依赖英语就能实现100种语言的互译,并称之为「里程碑式」进展.今天就有网友发帖质疑,「里程碑」的说法有点夸大宣传,「不依赖英语」也不够 ...

  3. 覆盖40种语言:谷歌发布多语言、多任务NLP新基准XTREME

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 自然语言权威数据集 GLUE 一直是衡量各机构 NLP 预训练技术水平最重要的指标 ...

  4. 多语言互通:谷歌发布实体检索模型,涵盖超百种语言和千万个实体

    实体链接(Entity linking)通常在自然语言理解和知识图谱中起着关键作用.谷歌AI研究人员近期提出了一种新的技术,在这种技术中,可以将特定语言解析为与语言无关的知识库. 如果一段文本中提到一 ...

  5. 谷歌智能助理能同时听懂两种语言 超过同类产品

    (原标题:Google Assistant can now speak two languages at once) 网易科技讯 8月31日消息,据国外媒体<连线>报道,在Siri.Ale ...

  6. 谷歌采用神经网络驱动机器翻译,可离线翻译59种语言

    内容来源:ATYUN AI平台 谷歌的在线翻译自2016年以来一直由神经机器翻译(NMT)驱动,今天,该公司推出了其神经网络驱动的方法,以便谷歌翻译的iOS和安卓应用用户能够更准确地实现59种语言的离 ...

  7. 谷歌语言设置_如何设置您的Google主页以使用两种语言

    谷歌语言设置 If you live in a bilingual household, you likely switch back and forth between both languages ...

  8. 谷歌翻译工具新改版,支持全球51种语言翻译功能

    2009年11月26日,谷歌宣布翻译工具(http://translate.g.cn 或者 http://翻译.g.cn)全新改版,除了整体产品界面全新上线外,新版还增加了包括实时翻译.英语语音朗读功 ...

  9. 全球首个突破200种语言互译的翻译引擎,百度翻译打破世界沟通壁垒

    机器翻译作为人工智能关键技术之一,正日益成为企业智能化升级的重要应用场景.12月1日,百度大脑开放日举办了以"机器翻译 沟通全世界"为主题的专场活动. IDC 中国副总裁兼首席分析 ...

最新文章

  1. MAC 重置MySQL root 密码
  2. NAR:UNITE真菌鉴定ITS数据库——处理未分类和并行分类(数据库文章阅读模板)
  3. Linux流量监控工具 - iftop (最全面的iftop教程)
  4. 通过实际的例子,介绍 SAP ABAP 里的 Repository Information System 的使用技巧
  5. 广州计算机专业王健,王健-计算机与信息工程学院
  6. python脚本语言采用声音作为手段_LKJ自动化测试脚本定义及生成技术研究
  7. IE请求json数据时出现下载文件的现象。
  8. 工作76::一直报400
  9. 如何降低微服务测试成本?我的经验之谈
  10. android 图片任意拖拉,android 拖拉图片 Gallery 用SimpleAdater实现
  11. jquery水平垂直居中_Java Web应用程序集成的jQuery UI选项卡(水平和垂直)示例
  12. 语音处理的分帧,帧移,加窗,滤波,降噪,合成
  13. BZOJ 1901 Zju2112 Dynamic Rankings 题解
  14. 数据分析从零到精通第五课 数据流量、策略、入口资源和AB实验设计
  15. 计算机网络实验一VLAN间路由
  16. 树莓派 ubuntu gpio_玩转GPIO之点亮三色信号灯(非树莓派)
  17. 高效记录任务和提醒的极简ToDo待办事项便签应用
  18. Mac电脑怎么关闭键盘的重复按键功能?
  19. 计算机仿真氢光谱实验,氢氘灯光谱 实验报告
  20. Win10升级Win11必备的5款免费软件

热门文章

  1. 判断手机是安卓还是苹果
  2. mysql 页分裂_InnoDB中的页合并与分裂
  3. JS正则表达式匹配手机号
  4. 52PJ官网 基础教程第二课的分享(OD)_Part2
  5. 手机5g什么时候普及_5g什么时候普及民用
  6. 收藏不迷路 —— Flutter 转场动效大合集
  7. 用python成为顶级黑客-python绝技:运用python成为顶级黑客 PDF 超清中文版
  8. win10睡眠风扇仍然转动解决办法。
  9. #500-7 [编程作业]3_4 念整数
  10. IOS开发音频与视频