来源:专知

【导读】自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总结。对于自然语言处理(NLP)领域而言,2019年是令人印象深刻的一年。在这篇博客文章中,我想重点介绍一些我在2019年遇到的与机器学习和NLP相关的最重要的故事。我将主要关注NLP,但我还将重点介绍一些与AI相关的有趣故事。标题没有特别的顺序。故事可能包括论文,工程工作,年度报告,教育资源的发布等。

  • 论文刊物

  • ML / NLP创造力与社会

  • ML / NLP工具和数据集

  • 文章和博客文章

  • 人工智能伦理

  • ML / NLP教育

Google AI引入了ALBERT ,它是BERT 的精简版本,用于自监督学习上下文语言表示。主要改进是减少冗余并更有效地分配模型的容量。该方法提高了12个NLP任务的最新性能。

  • Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut: ALBERT: A Lite BERT for Self-supervised Learning of Language Representations.ICLR 2020.

  • Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL-HLT (1) 2019: 4171-4186

    https://arxiv.org/abs/1810.04805

机器在比赛中的表现(类似sat的阅读理解)。随机猜测的基线得分为25.0。最高分是95.0分。

今年早些时候,NVIDIA的研究人员发表了一篇颇受欢迎的论文(Coined StyleGAN)(https://arxiv.org/pdf/1812.04948.pdf),提出了一种从样式转换中采用的GAN替代生成器架构。这是一项后续工作(https://arxiv.org/pdf/1912.04958v1.pdf),着重于改进,例如重新设计生成器归一化过程。

  • Tero Karras, Samuli Laine, Timo Aila: A Style-Based Generator Architecture for Generative Adversarial Networks. CVPR 2019: 4401-4410

  • Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen, Timo Aila:Analyzing and Improving the Image Quality of StyleGAN. CoRR abs/1912.04958 (2019)

上排显示目标图像,下排显示合成图像

我今年最喜欢的论文之一是code2seq(https://code2seq.org/),它是一种从结构化代码表示中生成自然语言序列的方法。这样的研究可以让位于诸如自动代码摘要和文档之类的应用程序。

Uri Alon, Shaked Brody, Omer Levy, Eran Yahav: code2seq: Generating Sequences from Structured Representations of Code. ICLR (Poster) 2019

有没有想过是否有可能为生物医学文本挖掘训练生物医学语言模型?答案是BioBERT(https://arxiv.org/abs/1901.08746),这是一种从生物医学文献中提取重要信息的情境化方法。

  • Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang: BioBERT: a pre-trained biomedical language representation model for biomedical text mining. CoRR abs/1901.08746 (2019)

BERT发布后,Facebook研究人员发布了RoBERTa,该版本引入了新的优化方法来改进BERT,并在各种NLP基准上产生了最新的结果。(https://ai.facebook.com/blog/-teaching-ai-to-plan-using-language-in-a-new-open-source-strategy-game/)

  • Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov: RoBERTa: A Robustly Optimized BERT Pretraining Approach. CoRR abs/1907.11692 (2019)

来自Facebook AI的研究人员最近还发布了一种基于全注意力关注层的方法,用于提高Transformer语言模型的效率。从这个研究小组更多的工作包括方法来教如何使用自然语言规划的AI系统。

  • Sainbayar Sukhbaatar, Edouard Grave, Piotr Bojanowski, Armand Joulin: Adaptive Attention Span in Transformers. ACL (1) 2019: 331-335

可解释性仍然是机器学习和NLP中的重要主题。集大成者!可解释人工智能(XAI)研究最新进展万字综述论文: 概念体系机遇和挑战—构建负责任的人工智能

  • Alejandro Barredo Arrieta, Natalia Díaz Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador García, Sergio Gil-Lopez, Daniel Molina, Richard Benjamins, Raja Chatila, Francisco Herrera: Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI. CoRR abs/1910.10045 (2019)

Sebastian Ruder发表了有关自然语言处理的神经迁移学习的论文

(https://ruder.io/thesis/)。

  • Ruder2019Neural, Neural Transfer Learning for Natural Language Processing, Ruder, Sebastian,2019,National University of Ireland, Galway

一些研究人员开发了一种在对话中进行情感识别的方法(https://arxiv.org/abs/1910.04980),可以为情感对话的产生铺平道路。另一个相关的工作涉及一种称为DialogueGCN(https://www.aclweb.org/anthology/D19-1015.pdf)的GNN方法,以检测对话中的情绪。该研究论文还提供了代码实现。

  • Devamanyu Hazarika, Soujanya Poria, Roger Zimmermann, Rada Mihalcea: Emotion Recognition in Conversations with Transfer Learning from Generative Conversation Modeling. CoRR abs/1910.04980 (2019)

  • Deepanway Ghosal, Navonil Majumder, Soujanya Poria, Niyati Chhaya, Alexander F. Gelbukh: DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation. EMNLP/IJCNLP (1) 2019: 154-164

Google AI Quantum团队在《自然》杂志上发表了一篇论文(https://www.nature.com/articles/s41586-019-1666-5),他们声称自己开发了一种量子计算机,其速度比世界上最大的超级计算机还要快。在此处详细了解他们的实验。

  • Arute, F., Arya, K., Babbush, R. et al. Quantum supremacy using a programmable superconducting processor. Nature 574, 505–510 (2019) doi:10.1038/s41586-019-1666-5

如前所述,神经网络体系结构需要大量改进的领域之一是可解释性。本论文(https://arxiv.org/abs/1908.04626)探讨了在语言模型的上下文explainability一个可靠的方法关注的局限性。

  • Sarah Wiegreffe, Yuval Pinter: Attention is not not Explanation. EMNLP/IJCNLP (1) 2019: 11-20

神经逻辑机器是一种神经符号网络体系结构(https://arxiv.org/abs/1904.11694),能够很好地在归纳学习和逻辑推理方面做得很好。该模型在诸如排序数组和查找最短路径之类的任务上表现出色。

  • Honghua Dong, Jiayuan Mao, Tian Lin, Chong Wang, Lihong Li, Denny Zhou:Neural Logic Machines. ICLR (Poster) 2019

神经逻辑机器架构

这是一篇将Transformer语言模型应用于提取和抽象神经类文档摘要的论文(https://arxiv.org/abs/1909.03186)。

  • Sandeep Subramanian, Raymond Li, Jonathan Pilault, Christopher J. Pal:  On Extractive and Abstractive Neural Document Summarization with Transformer Language ModelsCoRRabs/1909.03186 (2019)

研究人员开发了一种方法,侧重于使用比较来建立和训练ML模型。这种技术不需要大量的特征标签对,而是将图像与以前看到的图像进行比较,以确定图像是否属于某个特定的标签。

https://blog.ml.cmu.edu/2019/03/29/building-machine-learning-models-via-comparisons/

Nelson Liu等人发表了一篇论文,讨论了预先训练的语境设定者(如BERT和ELMo)获取的语言知识的类型。

https://arxiv.org/abs/1903.08855

  • Nelson F. Liu, Matt Gardner, Yonatan Belinkov, Matthew E. Peters, Noah A. Smith:Linguistic Knowledge and Transferability of Contextual Representations. NAACL-HLT (1) 2019: 1073-1094

XLNet是NLP的一种前训练方法,它在20个任务上都比BERT有改进。我写了一个总结,这伟大的工作在这里。

https://arxiv.org/abs/1906.08237

  • Zhilin Yang, Zihang Dai, Yiming Yang, Jaime G. Carbonell, Ruslan Salakhutdinov, Quoc V. Le: XLNet: Generalized Autoregressive Pretraining for Language Understanding. CoRR abs/1906.08237 (2019)

这项来自DeepMind的工作报告了一项广泛的实证调查的结果,该调查旨在评估应用于各种任务的语言理解模型。这种广泛的分析对于更好地理解语言模型所捕获的内容以提高它们的效率是很重要的。

https://arxiv.org/abs/1901.11373

  • Dani Yogatama, Cyprien de Masson d'Autume, Jerome Connor, Tomás Kociský, Mike Chrzanowski, Lingpeng Kong, Angeliki Lazaridou, Wang Ling, Lei Yu, Chris Dyer, Phil Blunsom: Learning and Evaluating General Linguistic Intelligence. CoRR abs/1901.11373 (2019)

VisualBERT是一个简单而健壮的框架,用于建模视觉和语言任务,包括VQA和Flickr30K等。这种方法利用了一组Transformer层,并结合了self-attention来对齐文本中的元素和图像中的区域。

https://arxiv.org/abs/1908.03557

  • Liunian Harold Li, Mark Yatskar, Da Yin, Cho-Jui Hsieh, Kai-Wei Chang: VisualBERT: A Simple and Performant Baseline for Vision and Language. CoRR abs/1908.03557 (2019)

这项工作提供了一个详细的分析比较NLP转移学习方法和指导NLP的从业者。

https://arxiv.org/abs/1903.05987

  • Matthew E. Peters, Sebastian Ruder, Noah A. Smith: To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks. RepL4NLP@ACL 2019: 7-14

Alex Wang和Kyunghyun提出了BERT的实现,能够产生高质量、流畅的表示。

https://arxiv.org/abs/1902.04094

Facebook的研究人员发表了XLM的代码(PyTorch实现),这是一个跨语言模型的预培训模型。

https://github.com/facebookresearch/XLM

本文全面分析了强化学习算法在神经机器翻译中的应用。

https://www.cl.uni-heidelberg.de/statnlpgroup/blog/rl4nmt/

这篇发表在JAIR上的调查论文对跨语言单词嵌入模型的培训、评估和使用进行了全面的概述。

https://jair.org/index.php/jair/article/view/11640

Gradient发表了一篇优秀的文章,详细阐述了强化学习目前的局限性,并提供了一条潜在的分级强化学习的前进道路。一些人发布了一套优秀的教程来开始强化学习。

https://thegradient.pub/the-promise-of-hierarchical-reinforcement-learning/

这篇简要介绍了上下文词表示。

https://arxiv.org/abs/1902.06006

参考链接:

https://medium.com/dair-ai/nlp-year-in-review-2019-fb8d523bcb19

未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

28篇标志性论文见证「自然语言处理NLP」2019-2020年度亮点进展相关推荐

  1. 「自然语言处理NLP」的“高光时刻” --- 28篇标志性论文

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总 ...

  2. 2019年「自然语言处理NLP」的“高光时刻” --- 28篇标志性论文

    点击上方"深度学习技术前沿",选择"星标"公众号 资源干货,第一时间送达 自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总结. ...

  3. (含源码)「自然语言处理(NLP)」社区问答评估Bert模型优化

    来源: AINLPer 微信公众号(每日更新-) 编辑: ShuYini 校稿: ShuYini 时间: 2020-03-21 引言: 本文分享的内容主要包括社区问答质量评估(基于Bert模型微调). ...

  4. 「自然语言处理(NLP)」神经机器翻译(NMT)论文整理(一)

    来源: AINLPer 微信公众号(每日更新-) 编辑: ShuYini 校稿: ShuYini 时间: 2020-02-27 引言: 下面是作者整理的关于神经机器翻译(NMT)相关的论文文章,下面这 ...

  5. 「自然语言处理(NLP)」ACL 阿里(舆论、立场检测) 耶鲁(电子邮件主题生成)

    来源:AINLPer微信公众号 编辑: ShuYini 校稿: ShuYini 时间: 2019-8-24 引言     本次为大家推荐两篇文章,第一篇是阿里巴巴团队提出的用于谣言检测和立场分类的多任 ...

  6. nmt模型源文本词项序列_「自然语言处理(NLP)」阿里团队--文本匹配模型(含源码)...

    来源:AINLPer微信公众号 编辑: ShuYini 校稿: ShuYini 时间: 2019-8-14 引言 两篇文章与大家分享,第一篇作者对通用文本匹配模型进行探索,研究了构建一个快速优良的文本 ...

  7. antd 文本域超长问题_「自然语言处理(NLP)」阿里团队--文本匹配模型(含源码)...

    来源:AINLPer微信公众号 编辑: ShuYini 校稿: ShuYini 时间: 2019-8-14 引言     两篇文章与大家分享,第一篇作者对通用文本匹配模型进行探索,研究了构建一个快速优 ...

  8. 「自然语言处理(NLP)」中文自然语言处理可能用到的数据集

    来源: AINLPer 微信公众号(每日更新-) 编辑: ShuYini 校稿: ShuYini 时间: 2020-08-08 引言: 给大家分享一下中文自然语言处理可能用到的数据集,感兴趣的小伙伴可 ...

  9. 「CSP-S模拟赛」2019第四场

    「CSP-S模拟赛」2019第四场 T1 「JOI 2014 Final」JOI 徽章 题目 考场思考(正解) T2 「JOI 2015 Final」分蛋糕 2 题目 考场思考(正解) T3 「CQO ...

最新文章

  1. bzoj4361 isn (dp+树状数组+容斥)
  2. Equipment download - individual object以及object structure创建细节
  3. SQLServer游标简单应用(求分组最小值问题)
  4. 【Python生成readme文件】——Markdown语法
  5. 模板:Prufer序列
  6. 爬虫——————爬取中金所,深交所,上交所期权数据
  7. android重写返回按钮点击事件,Android Fragment监听返回键
  8. 14.2.4 InnoDB Undo Logs
  9. charts 画折线图
  10. 佳能Canon PIXMA MP236 打印机驱动
  11. html td 跨两个,【单选题】在HTML中,td标签的( )属性用于创建跨多个行的单元格。...
  12. 北京城市学院计算机本科就业率高吗,北京城市学院就业情况怎么样
  13. Java写一个矩阵输出并输出它的转置
  14. USB (十三)2022-04-02
  15. c语言动态规划算法数塔问题,动态规划之数塔问题...
  16. ubuntu下添加日语输入法
  17. 论文研读-AI4VIS-可视化推荐-Table2Analysis/Table2Charts
  18. 【有利可图网】PS教程:简单制造火焰文字特效
  19. RISC和CISC的区别
  20. Kafka事务使用和编程示例/实例

热门文章

  1. Python 3.10的几个好用的新特性
  2. 独家 | 如何让情绪智力驱动创新?
  3. ​AI技术重现的老北京原声影像又火了,网友:这口音太过真实
  4. 独家 | 谷歌医学AI在生活中的精确度(附链接)
  5. 实力坑队友! CTO 写出低级 Bug,致公司 70 GB 数据遭泄露!
  6. 星际2虫王iA加入商汤,担任AI研究员,网友:iA vs AI ,是自己训练跟自己打吗?...
  7. 《我的Python之路V1.3.pdf》可以下载了,这版pdf更精美!
  8. 5300亿参数,SOTA屠榜!最大NLP预训练模型新王登基,微软英伟达联手称霸
  9. 计算机行业越来越卷,AI都会刷LeetCode了,网友:比我强
  10. 清华孵化、张钹加盟的这家公司,现在把“第三代人工智能”落地了