文 | Yimin_饭煲
编 | 炼丹学徒

如果评选NLP圈的2020年度十大关键词,那么GPT-3(Language Models are Few shot Learners) 一定榜上有名。

GPT-3庞大的参数量,优异的性能至今仍让圈内圈外人都津津乐道,而OpenAI发布的OpenAI API,更是为自然语言处理技术的大规模可扩展商业应用提供了一个极有前景的方向。不过,作为NLP研究者,我认为GPT-3对前沿研究的最大贡献是,展现了 Prompt-tuning 技术在通用任务(特别是零样本和小样本场景下)上的应用潜力。在GPT-3之前,Prompt-tuning 大多仅被用来探索语言模型中蕴藏的世界知识,而GPT-3之后,Prompt-tuning 就“登堂入室”,被用到了各种类型的NLP任务上(甚至还有多模态任务、代码分析任务),成为了近两年来发Paper的一个热点。不太熟悉 Prompt-tuning 的读者可以参考CMU最新发布在arxiv上的综述 (Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing)。

卖萌屋之前也转载过该论文的中文解析 《Fine-tune之后的NLP新范式:Prompt越来越火,CMU华人博士后出了篇综述文章》

Prompt-tuning 和GPT-3互相成就,成为了NLP发展历史中不可忽略的里程碑。基于 Prompt-tuning 让GPT-3处理各种类型的任务,固然取得了不错的表现,但仔细想想,GPT-3这样一个创造了各种奇迹的巨大模型,是否还有 更大的零样本和小样本学习能力 尚未挖掘?Prompt-tuning 一定是利用GPT-3的最好方式吗?Google的研究员们不甘心止步于此,提出了 instruction-tuning ,利用比GPT-3更少的参数量,在25个任务中的19个上显著超越GPT-3,告诉世界:GPT-3, 还能更强!

论文题目:
Finetuned Language Models Are Zero-Shot Learners

论文链接:
https://arxiv.org/abs/2109.01652

方法:FLAN

谷歌的研究员们将自己的方法取名为FLAN (Finetuned LANguage Models are zero-shot Learners),相比于GPT-3(LANguage Models are zero-shot Learners),区别在于Finetune. FLAN的核心思想是,当面对给定的任务A时,首先将模型在大量的其他不同类型的任务上进行微调, 微调的方式是将任务的指令与数据进行拼接(可以理解为一种Prompt), 随后给出任务A的指令,直接进行推断。具体示例可见下图。

例如,我们的最终目标是推理任务,FLAN首先讲语言模型在其他任务上进行微调,包括给定任务指令的翻译、常识推理、情感分类等。在面对翻译任务时可以给出指令“请把这句话翻译成西班牙语”。在面对常识推理任务时可以给出指令“请预测下面可能发生的情况”,而当模型根据这些“指令”完成了微调阶段的各种任务后(将指令拼接在微调数据的前面),在面对从未见过的最终需要的自然语言推理任务的指令“这段话能从假设中推导出来吗?” 时,就能更好地调动出已有的知识回答问题。

在GPT-3等研究Prompt-tuning的工作中,研究者们发现Prompt的质量对模型的性能有着较大的影响,因此产生了Prompt Engineering这一技术,通过选取更好的Prompt**让模型取得更好的表现。谷歌的研究者们同样为每一类任务手动设计了10个 不同的指令 。以自然语言推断任务为例,如下图所示。

实验结果

实验设置

作者们选取了12类共计62个常见的自然语言处理和生成任务开展实验:

作者们训练了一个大小为137B的自回归语言模型(Base LM) 作为基准语言模型。通过简单的重采样方法,作者们让不同大小的数据集在总的微调语料中占比相对平衡。在微调时,对每一个输入样本都随机选取该类任务十条指令中的一条以增加模型的多样性。为了保证实验对比的公平性,当评测在某一个任务(例如RTE)上的表现时,所有的同类别数据集(例如:SNLI,WNLI,MNLI...)和一些强相关类别的数据集(例如Paraphrase)将不会在微调阶段出现。

作者们使用了T5-11B和GPT-3作为基线模型。对于FLAN方法,作者同时给出了在目标任务上选择随机指令(no prompt engineering) 和在目标任务验证集上最优指令(best dev template)

结果

作者们发现,FLAN这一方法在与指令更相关的任务上表现更好(例如自然语言推断,问答), 而在与常识更相关的任务上表现较为普通。

在自然语言推断任务和问答任务上,FLAN在零样本场景下就已经超过了小样本GPT-3的效果,在许多任务上甚至与有监督模型达到了相当的表现。

在大多数常识推理任务上,FLAN相比于GPT-3的表现基本没有提升。作者们认为主要原因是常识推理任务对指令的依赖较小。大多数常识推理任务可以直接转化为语言模型的形式,因此仅需要基于简单的Prompt就已经可以达到很好的表现。在作者们给出的原因之外,笔者认为另一个可能的原因是,其他任务很难提供常识推理所需要的通用世界知识,进行微调反而可能影响原有语言模型中涉及到常识的参数,损害泛化性能。

在翻译任务上,零样本场景下的FLAN明显优于GPT-3,但相比于小样本GPT-3的表现仍然有差距。

作者们还研究了增加指令微调阶段任务的数目对FLAN模型效果的影响。结果表明,随着指令微调任务数目的增加,模型在各种任务上都能够取得更好的表现。

作者们同时研究了模型大小对FLAN模型效果的影响,一个有趣的现象是,当模型的大小较小时,指令微调反而会让模型的表现变差。作者认为的原因时,当模型较小时,在大量的任务上做指令微调会“填满”模型的容量,损害模型的泛化能力,使得模型在新任务上表现较差。

结语

熟悉NLP相关领域的同行们,也许会认为这篇文章又是一篇“A+B”的工作(A= Prompt-tuning, B= Multi-task Learning).基于Prompt的工作正值大热的时期(你敢相信九月的第一周就有四篇和Prompt有关的NLP论文挂Arxiv吗~),而通过在不同种类的微调任务上多任务学习提升性能也并不新颖, 例如早期Microsoft的工作MT-DNN,Facebook的工作MUPPET。

不过,笔者认为,这样的A+B,或许是未来通用自然语言处理模型的一个可能的解决方案。

首先通过大量的无标记语料训练千亿参数级别的大规模自回归预训练模型,第二步,通过设计指令(Instruction Tuning) 的方式让这样的模型能够对理解和生成任务进行微调。在微调的过程中可以采用类似于课程学习的方式,先学习底层的任务(如命名实体识别,序列语义标注),再学习上层的任务(如逻辑推理,问答);先学习资源丰富的任务(如英语/大数据任务),再学习资源较少的任务(如小语种、少数据任务),并利用适配器(Adapter)保留模型中任务专用的部分。最后,给出指令让模型面对新数据、新任务进行推理。

这样通用性更强的工作应该不会太远,也许资源丰富的大厂们已经在搞了呢~

后台回复关键词【入群

加入卖萌屋NLP/IR/Rec与求职讨论群

后台回复关键词【顶会

获取ACL、CIKM等各大顶会论文集!

 

[1] Finetuned Language Models Are Zero-Shot Learners
https://arxiv.org/abs/2109.01652

[2] Multi-Task Deep Neural Networks for Natural Language Understanding
https://aclanthology.org/P19-1441/

[3] Muppet: Massive Multi-task Representations with Pre-Finetuning
https://arxiv.org/abs/2101.11038

别再Prompt了!谷歌提出tuning新方法,强力释放GPT-3潜力!相关推荐

  1. 谷歌提出“T5” 新NLP模型,突破迁移学习局限,多基准测试达SOTA!

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 转载自:AI科技评论 过去几年间,迁移学习给 NLP 领域带来了丰硕的成果,掀起了 ...

  2. CVPR 2019 | 旷视研究院提出Re-ID新方法VPM,优化局部成像下行人再识别

    全球计算机视觉三大顶级会议之一 CVPR 2019 将于当地时间 6 月 16-20 日在美国洛杉矶举办.届时,旷视研究院将带领团队远赴盛会,助力计算机视觉技术的交流与落地.在此之前,旷视每周会介绍一 ...

  3. 行人被遮挡问题怎么破?百度提出PGFA新方法,发布Occluded-DukeMTMC大型数据集 | ICCV 2019...

    作者 | Jiaxu Miao.Yu Wu.Ping Liu.Yuhang Ding.Yi Yang 译者 | 刘畅 编辑 | Jane 出品 | AI科技大本营(ID:rgznai100) [导语] ...

  4. 模型压缩6倍,无需重训练:数学家团队提出量化新方法

    点击上方,选择星标或置顶,不定期资源大放送! 阅读大概需要5分钟 Follow小博主,每天更新前沿干货 作者|小舟 来源|机器之心 RUDN 大学的数学家团队找到一种新方法,该方法能够让神经网络的大小 ...

  5. 自回归解码加速64倍,谷歌提出图像合成新模型MaskGIT

    来源:机器之心 本文约2200字,建议阅读5分钟 一种使用双向 transformer 解码器的新型图像合成模型 MaskGIT,在性能和速度上都获得了大幅改进. 来自谷歌研究院的研究者提出了一种使用 ...

  6. Imagen Video Phenaki:谷歌提出的新AI视频生成技术

    本文来源  机器之心   编辑:张倩.杜伟  未经授权 不得二次转载 谷歌.Meta 等科技巨头又挖了一个新坑. 在文本转图像上卷了大半年之后,Meta.谷歌等科技巨头又将目光投向了一个新的战场:文本 ...

  7. 旷视提出AutoML新方法,在ImageNet取得新突破 | 技术头条

    点击上方↑↑↑蓝字关注我们~ 「2019 Python开发者日」,购票请扫码咨询 ↑↑↑ 来源 | 旷视研究院 近日,来自旷视研究院的郭梓超.张祥雨.穆皓远.孙剑等人发表一篇新论文"Sing ...

  8. ACM MM 2021 北航鹏城实验室提出 SOD 新方法:互补三边解码器网络(CTDNet),兼顾高性能和高效率...

    关注公众号,发现CV技术之美 本文分享 ACM MM 2021 论文『Complementary Trilateral Decoder for Fast and Accurate Salient Ob ...

  9. 如何让人形机器人“行稳致远”?这篇顶级期刊的论文提出了新方法

    随着人形机器人行业的快速发展,其在现实生活中的应用也愈发变得可能.如何在适应不同的地面环境的同时,还能保证机器人的行走安全,是一个亟待解决的课题. 作者 | 优必选 优必选科技与代尔夫特理工大学丁加涛 ...

最新文章

  1. 马斯克Neuralink被曝“虐杀实验猴”,140万元美金项目遭谴责
  2. 谈谈在.NET Core中使用Redis和Memcached的序列化问题
  3. 什么样的网站建设公司才是值得信赖的?
  4. mongodb常用语句(集合操作)
  5. uni-app 封装请求
  6. Python标准库:内置函数ascii(object)
  7. Angular学习笔记04——绑定和管道
  8. Debugging a Create React App with VS Code
  9. spss 安装包以及许可证
  10. sketch插件的学习 末尾链接有彩蛋
  11. 工作第九周:勇敢的少年,快去创造奇迹!
  12. 阿里巴巴新开店铺权重提升的方法
  13. centos安装Nvidia显卡驱动(3090)
  14. UE4地形操作出现黑框的处理
  15. dell服务器服务器数据丢失后,数据恢复
  16. Redis 基础 - 优惠券秒杀《分布式锁(初级)》
  17. AIGC在营销图片生成技术综述
  18. 转:彻底搞懂Android文件存储---内部存储,外部存储以及各种存储路径解惑
  19. 基于同态加密体制的安全多方计算
  20. Python常用标准库之正则表达式

热门文章

  1. Orchard商城模块(Commerce)设计与后台部分
  2. Module System of Swift (简析 Swift 的模块系统)
  3. CF 46D Parking Lot
  4. 转:程序员每天该做的事
  5. gcc和g++有什么区别?
  6. 南京大学2021计算机考研复试线是多少,34所自划线院校2021考研复试分数线-2021南京大学考研分数线已公布...
  7. 神经网络用python还是matlab_Matlab与神经网络学习笔记
  8. 十九、MySQL常用命令总结
  9. 主成分分析(PCA)和基于核函数的主成分分析(KPCA)入门
  10. LeetCode 2013. 检测正方形(字典)