作者 | Leo Gao

译者 | 凯隐

编辑 | 夕颜

出品 | AI科技大本营(ID: rgznai100)

【导读】在过去的一年中,人们对文本生成模型的兴趣重新燃起,这在很大程度上要归功于GPT2,它主要展示了使用更大模型、更大数据和更大计算量的Transformer架构的有效性。值得注意的是,在没有经过训练的情况下,该模型在几个语言建模数据集上就获得了SOTA结果,这显示了其惊人的泛化能力。

随着GPT2的成功,其他一些实体也加入了这一潮流,并发布了自己的大型单向语言模型,例如Grover,Nvidia的Megatron-LM和Salesforce的CTRL。且不说OpenAI声称该模型“太危险而不能发布”而引发的争议,GPT2生成的文本从各方面来看都要比以前的文本生成模型好很多。

然而这些模型也显示出一些缺陷,并且这些缺陷可能无法仅通过扩大模型(更大的模型、数据、计算量)来弥补。在这篇文章中,我们将快速概览其中的一些缺陷并尝试解决这些问题,并在此基础上讨论未来研究的一些潜在方向。

什么是自回归语言模型?为何这种模型很重要?

语言建模的核心问题是使用参数化函数逼近英语(或Lojban,Navajo,Python等) 中自然语言序列的分布。为了让建模更加灵活,自回归语言模型中将理想模型表示为:

可以从公式中看到,条件概率在xi处的值总是基于之前的值(),换句话说,为了使建模问题更易于处理,我们转而训练参数化的函数,根据前面的符号来预测下一个符号,并使用附加到原始上下文的新生成的符号作为新上下文重复此操作。接着,我们可以通过对这些条件概率求积,得到对任意给定序列的可能性的估计。

包括分类和翻译在内的许多问题都可以等价地表述为自回归问题,或者可以显著地从一个强大的预训练自回归语言模型中受益,因此自回归语言模型是具有很强的泛化性的,其重要性不言而喻。从这个角度上讲,改进语言建模也可能是解决一般人工智能问题的重要一步。

定向搜索和文本重复性

在提供的GPT2样本中,作者使用top-k滤波和温度进行采样,而不是使用beam搜索,这样可以通过最大化似然得到更高质量的样本。然而令人惊讶的是, “The Curious Case of Neural Text Degeneration” (Holzman et al. 2019) 指出GPT2通过更高的预测概率得到的样本实际上质量更差,并且采样得到的文本趋向于高重复性。作者认为这个建模问题本质上是因为最大似然是一个根本错误的采样目标,并提出了核抽样,这种抽样方法可以截断低似然的符号,类似于top-k采样,同时保留长尾分布。然而高似然采样可以从更直观的角度理解,可以认为,既然从理想的语言模型中抽取了一个极大似然样本,根据定义,这个样本将提供最可能出现的英文文本,这已经考虑到了极其乏味和重复的文本的可能性!因此问题是出在训练目标,而不是采样目标。

因此另一个简单的解决方法就是在训练时添加对重复性的惩罚,事实上,在神经文本退化论文发表后不久,我就独立地实现了我自己的GPT2波束搜索采样器。在重新考虑文本退化问题之后,我为重复的字符添加了一个简单的、任意时间可解码惩罚,乍一看结果还可以接受,但在理论上几乎没有理由这样做。最近,“Neural Text DeGeneration with Unlikelihood Training” (Welleck, Kulikov et al. 2019)提出了一种更加复杂的训练时间惩罚方案,包括在训练目标函数中添加一项额外惩罚项:

其中Ct是之前已经使用过的符号。虽然从经验上来说是成功的,但是没有很好的理论理由来解释为什么较少的重复量会更好地模拟潜在的分布。

曝光误差

通过最大似然来训练自回归语言模型的一个主要问题是曝光误差(exposure bias, Ranzato et al., 2015)。自回归模型只对从目标语言分布中抽取的样本进行训练和评估,而在评估时则输入由该模型生成的样本。这个错误会极其迅速地加剧,并且人们已经观察到,GPT2在经过一定次数的训练后,其质量急剧下降,尽管这已经是公认的事实。

未来工作展望

这个问题与强化学习中的许多问题高度相似,目前许多工作,例如 “SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient” (Yu et al., 2016), “Improving Conditional Sequence Generative Adversarial Networks by Stepwise Evaluation” (Tuan et al., 2018), and “Toward Diverse Text Generation with Inverse Reinforcement Learning” (Shi et al., 2018) 使用强化学习来训练序列生成模型中的各个部分,从在GAN设置中传播生成器梯度到使用反向强化学习(它本身与GANs紧密相连)。

在这些基于强化学习的方法对GPT2中的模型这样大的模型变得实用之前,还有很长的路要走。中间步骤是使用现有的预训练语言模型,并在强化学习环境中对它们进行调优。此外,一个能够很好地量化曝光误差的评估指标对于适当的定量分析也很重要,该方向的一篇不错的论文是“Jointly Measuring Diversity and Quality in Text Generation Models” (Montahaei et al., 2019)。

总结

虽然最近的工作已经证明由于模型大小的增加,神经文本生成的质量有了巨大的改进,但是曝光误差的问题仍然存在于生成的长序列文本中。这方面的进展可能需要从强化学习的工作中吸取经验。事实上,在强化学习和语言建模的相互结合这个思路上,已经出现了许多有前途的工作。希望这些改进的语言模型不仅是在单个段落的尺度内,也可以整片文章的尺度内与人工文本竞争。

参考链接

GPT2:https://openai.com/blog/better-language-models/

“The Curious Case of Neural Text Degeneration” :https://arxiv.org/abs/1904.09751

“Neural Text DeGeneration with Unlikelihood Training” : https://arxiv.org/abs/1908.04319

原文链接:

https://leogao.dev/2019/10/27/The-Difficulties-of-Text-Generation-with-Autoregressive-Language-Models/

(*本文为AI科技大本营翻译文章,转载请微信联系 1092722531)

精彩推荐

1、评选进行中,参与投票即有机会参与抽奖,60+公开课免费学习

2、【Python Day——北京站】现已正式启动,「新春早鸟票」火热开抢!2020年,我们还将在全国多个城市举办巡回活动,敬请期待!活动咨询,可扫描下方二维码加入官方交流群~

CSDN「Python Day」咨询群 ????

来~一起聊聊Python

如果群满100人,无法自动进入,可添加会议小助手微信:婷婷,151 0101 4297(电话同微信)


推荐阅读

  • 连遭Google、Tesla“冷眼”,俄罗斯小伙8个月喜提顶级自动驾驶公司Offer

  • 图模型+Bert香不香?完全基于注意力机制的图表征学习模型Graph-Bert

  • 5个可以帮助你提高工作效率的新AI工具

  • 亚马逊机器学习服务:深入研究AWS SageMaker

  • 从4个月到7天,Netflix开源Python框架Metaflow有何提升性能的魔法?

  • 管理7k+工作流,月运行超10000万次,Lyft开源的Flyte平台意味着什么?

  • 漫画 | 每年春节程序员都要经历的灵魂拷问

  • 疫情下的区块链企业:11家公司共捐赠6000多万元,发动海外采购渠道

  • 你点的每个“在看”,我都认真当成了AI

GPT2文本生成有问题?这里有些潜在解决思路相关推荐

  1. 预训练生成模型:结合VAE与BERT/GPT-2提高文本生成效果

    论文标题: Optimus: Organizing Sentences via Pre-trained Modeling of a Latent Space 论文作者: Chunyuan Li, Xi ...

  2. 使用深度学习模型创作动漫故事,比较LSTM和GPT2的文本生成方法

    这个项目的动机是想看看在短短的几年时间里NLP领域的技术已经走了多远,特别是当它涉及到生成创造性内容的时候.通过生成动画概要,我探索了两种文本生成技术,首先是使用相对陈旧的LSTM,然后使用经过微调的 ...

  3. ICBU可控文本生成技术详解

    简介: 文本生成(Text Generation)是自然语言处理(Natural Language Processing,NLP)领域的一项重要且具有挑战的任务.顾名思义,文本生成任务的目的是生成近似 ...

  4. 大小是否对自然语言文本生成很重要

    OpenAI GPT-3 has 175 Billion parameters. Microsoft has leapfrogged GPT-3 with Turing-NLG with 1,000 ...

  5. ICBU 可控文本生成技术详解

    可控文本生成技术大图 一 文本生成技术 文本生成(Text Generation)是自然语言处理(Natural Language Processing,NLP)领域的一项重要且具有挑战的任务.顾名思 ...

  6. ACL2022 | 文本生成的相关前沿进展

    每天给你送来NLP技术干货! 来自:复旦DISC 引言 文本生成作为人工智能领域研究热点之一,其研究进展与成果也引发了众多关注.本篇主要介绍了三篇ACL2022的三篇文章.主要包含了增强预训练语言模型 ...

  7. AI 赋予文字无限力量:“由文本生成一切”的一年

    作者:Daniel Bashir TL;DR:得益于最新的技术进展,人工智能模型现在能将文本转化为其他形态.这篇文章回顾了 AIGC 的发展历程及现状,并预测未来的发展. "一种基于文本指令 ...

  8. CVPR2022 | ZeroCap:零样本图像到文本生成的视觉语义算法

    CVPR2022 | ZeroCap:零样本图像到文本生成的视觉语义算法 [写在前面] 最近的文本到图像匹配模型将对比学习应用于大量未经管理的图像和句子对.虽然此类模型可以为匹配和后续的zero-sh ...

  9. 引燃AI社区,不用跨界也能从文本生成图像,OpenAI新模型打破自然语言与视觉次元壁...

    视学算法报道 作者:魔王.杜伟.蛋酱 艺术创作的事,以后人类只要动手打几个字,其他的交给 AI 就行了. 自然语言与视觉的次元壁正在被打破.这不,OpenAI 最近连发大招,提出两个连接文本与图像的神 ...

最新文章

  1. HDU 5693 D Game 区间dp
  2. Android中BroadcastReceiver组件详解
  3. SAP WM模块常用T-code
  4. 《途客圈创业记:不疯魔,不成活》一一2.1 创新工场初印象
  5. Razor Page Library:开发独立通用RPL(内嵌wwwroot资源文件夹)
  6. 文件标识符必须为双精度类型的整数值标量_数据类型
  7. Android逆向笔记-使用Android Studio调试Smali代码(方式二)
  8. springcloud 系列教程一:微服务与网站架构演变过程
  9. PTA17、求指定层的元素个数 (10 分)
  10. 神经网络之文本情感分析(四)
  11. 二胎妈妈,35岁,年薪70万,家庭工作平衡太难,要不要辞职?
  12. jQuery Mobile 所有data-*选项,开发全解+完美注释
  13. mysql io线程 原理_mysql 原理 ~ 线程与IO
  14. 【CTF】明御攻防实验平台 crypto 鸡藕椒盐味 wp--海明校验码
  15. python找色_利用python检测色情图片简易实例
  16. Microsoft Teams 报错:We‘re sorry-we‘ve run into an issue.
  17. android frameworks下面config.xml属性
  18. edvac是商用计算机吗,EDVAC(eniac与edvac的区别)
  19. 如何注册表里修改计算机用户名,更改电脑用户名(可更改C:\Users\用户名)
  20. 使用UltraISO刻录DMG光盘映像

热门文章

  1. cocos2d-x JS 获取当前系统时间(解决屏幕双击点击事件)
  2. python流程控制:while循环
  3. 【MyBatis学习01】宏观上把握MyBatis框架
  4. netty里集成spring注入mysq连接池(一)
  5. Elasticsearch环境搭建
  6. 一张图带你了解 Spring Cloud 微服务架构!
  7. 多传感器融合(算法)综述
  8. linux如何编译tex,Linux下优秀的文本编辑器(Markdown、LaTeX、MathJax)
  9. Spark集群部署(standLone)模式
  10. BZOJ 4025 二分图