本资源整理了自然语言处理相关深度生成模型资源,会议和相关的一些前沿论文,分享给需要的朋友。

本资源整理自:https://github.com/FranxYao/Deep-Generative-Models-for-Natural-Language-Processing

当谈到深层生成模型时,通常指三个模型族:变分自动编码器(VAEs)、生成对抗网络(GANs)和归一化流(Normalizing Flows)。

在这三大模型家族中,我们将更多地关注VAE相关的模型,因为它们更有效。GAN是否真的有效仍然是一个悬而未决的问题。GANs的有效性更像是判别器(discriminator)的正则化,而不是“生成”部分。

自然语言处理的VAE模型涉及许多离散结构。对这些结构的推断既复杂又聪明。本资源整理了相关的一些资源、论文和会议。

资源部分

   图形模型基础

在我们旅程开始之前,DGMs的基础是建立在概率图形模型上的。所以我们首先要了解这些模型。

   推荐三门不错的课程:

Blei's Foundation of Graphical Models course, STAT 6701 at Columbia

Xing's Probabilistic Graphical Models, 10-708 at CMU

Collins' Natural Language Processing, COMS 4995 at Columbia

 两本不错的书:

Pattern Recognition and Machine Learning. Christopher M. Bishop. 2006

Machine Learning: A Probabilistic Perspective. Kevin P. Murphy. 2012

深度生成模型

分享一些DGMS相关不错的资源:

 Wilker Aziz's DGM Landscape 

    A Tutorial on Deep Latent Variable Models of Natural Language (link), EMNLP 18

Yoon Kim, Sam Wiseman and Alexander M. Rush, Havard

    Deep Generative Models for Natural Language Processing, Ph.D. Thesis 17

Yishu Miao, Oxford

    Stanford CS 236, Deep Generative Models (link)

    NYU Deep Generative Models

    U Toronto CS 2541 Differentiable Inference and Generative Models, CS 2547 Learning Discrete Latent Structures.

相关知识点思维导图

不一定全面正确,待补充。

NLP相关

主要关注两个主题:生成和结构推理

    生成部分

Generating Sentences from a Continuous Space, CoNLL 15

Samuel R. Bowman, Luke Vilnis, Oriol Vinyals, Andrew M. Dai, Rafal Jozefowicz, Samy Bengio

  Spherical Latent Spaces for Stable Variational Autoencoders, EMNLP 18

Jiacheng Xu and Greg Durrett, UT Austin

    Semi-amortized variational autoencoders, ICML 18

Yoon Kim, Sam Wiseman, Andrew C. Miller, David Sontag, Alexander M. Rush, Havard

 Lagging Inference Networks and Posterior Collapse in Variational Autoencoders, ICLR 19

Junxian He, Daniel Spokoyny, Graham Neubig, Taylor Berg-Kirkpatrick

 Avoiding Latent Variable Collapse with Generative Skip Models, AISTATS 19

Adji B. Dieng, Yoon Kim, Alexander M. Rush, David M. Blei

 结构推理

这部分整理结构推理相关的工作,涉及自然语言处理分块,标记和解析三个部分任务。

 An introduction to Conditional Random Fields. Charles Sutton and Andrew McCallum. 2012

Linear-chain CRFs. Modeling, inference and parameter estimation

Inside-Outside and Forward-Backward Algorithms Are Just Backprop. Jason Eisner. 2016.

Differentiable Dynamic Programming for Structured Prediction and Attention. Arthur Mensch and Mathieu Blondel. ICML 2018

To differentiate the max operator in dynamic programming.

Structured Attention Networks. ICLR 2017

Yoon Kim, Carl Denton, Luong Hoang, Alexander M. Rush

Recurrent Neural Network Grammars. NAACL 16

Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah Smith.

   Unsupervised Recurrent Neural Network Grammars, NAACL 19

Yoon Kin, Alexander Rush, Lei Yu, Adhiguna Kuncoro, Chris Dyer, and Gabor Melis

    Differentiable Perturb-and-Parse: Semi-Supervised Parsing with a Structured Variational Autoencoder, ICLR 19

Caio Corro, Ivan Titov, Edinburgh

离散Reparamterization的一些技巧

Categorical Reparameterization with Gumbel-Softmax. ICLR 2017

Eric Jang, Shixiang Gu, Ben Poole

The Concrete Distribution: A Continuous Relaxation of Discrete Random Variables. ICLR 2017

Chris J. Maddison, Andriy Mnih, and Yee Whye Teh

  Reparameterizable Subset Sampling via Continuous Relaxations. IJCAI 2019

Sang Michael Xie and Stefano Ermon

Stochastic Beams and Where to Find Them: The Gumbel-Top-k Trick for Sampling Sequences Without Replacement. ICML 19

Wouter Kool, Herke van Hoof, Max Welling

机器学习相关

机器学习相关部分,首先从VAE开始。

    VAEs

    Auto-Encoding Variational Bayes, Arxiv 13

Diederik P. Kingma, Max Welling

 Variational Inference: A Review for Statisticians, Arxiv 18

David M. Blei, Alp Kucukelbir, Jon D. McAuliffe

 Stochastic Backpropagation through Mixture Density Distributions, Arxiv 16

Alex Graves

Reparameterization Gradients through Acceptance-Rejection Sampling Algorithms. AISTATS 2017

Christian A. Naesseth, Francisco J. R. Ruiz, Scott W. Linderman, David M. Blei

Reparameterizing the Birkhoff Polytope for Variational Permutation Inference. AISTATS 2018

Scott W. Linderman, Gonzalo E. Mena, Hal Cooper, Liam Paninski, John P. Cunningham.

 Implicit Reparameterization Gradients. NeurIPS 2018.

Michael Figurnov, Shakir Mohamed, and Andriy Mnih

    GANs

    Generative Adversarial Networks, NIPS 14

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio

Towards principled methods for training generative adversarial networks, ICLR 2017

Martin Arjovsky and Leon Bottou

  Wasserstein GAN

Martin Arjovsky, Soumith Chintala, Léon Bottou

Normalizing Flows相关

    Variational Inference with Normalizing Flows, ICML 15

Danilo Jimenez Rezende, Shakir Mohamed

  Improved Variational Inference with Inverse Autoregressive Flow

Diederik P Kingma, Tim Salimans, Rafal Jozefowicz, Xi Chen, Ilya Sutskever, Max Welling

 Learning About Language with Normalizing Flows

Graham Neubig, CMU, slides

 Latent Normalizing Flows for Discrete Sequences. ICML 2019.

Zachary M. Ziegler and Alexander M. Rush

Reflections and Critics

需要补充更多论文

    Do Deep Generative Models Know What They Don't Know? ICLR 2019

Eric Nalisnick, Akihiro Matsukawa, Yee Whye Teh, Dilan Gorur, Balaji Lakshminarayanan

更多一些应用

篇章和多样化

   Paraphrase Generation with Latent Bag of Words. NeurIPS 2019.

Yao Fu, Yansong Feng, and John P. Cunningham

A Deep Generative Framework for Paraphrase Generation, AAAI 18

Ankush Gupta, Arvind Agarwal, Prawaan Singh, Piyush Rai

  Generating Informative and Diverse Conversational Responses via Adversarial Information Maximization, NIPS 18

Yizhe Zhang, Michel Galley, Jianfeng Gao, Zhe Gan, Xiujun Li, Chris Brockett, Bill Dolan

    主题相关语言生成

 Discovering Discrete Latent Topics with Neural Variational Inference, ICML 17

Yishu Miao, Edward Grefenstette, Phil Blunsom. Oxford

  Topic-Guided Variational Autoencoders for Text Generation, NAACL 19

Wenlin Wang, Zhe Gan, Hongteng Xu, Ruiyi Zhang, Guoyin Wang, Dinghan Shen, Changyou Chen, Lawrence Carin. Duke & MS & Infinia & U Buffalo

    TopicRNN: A Recurrent Neural Network with Long-Range Semantic Dependency, ICLR 17

Adji B. Dieng, Chong Wang, Jianfeng Gao, John William Paisley

Topic Compositional Neural Language Model, AISTATS 18

Wenlin Wang, Zhe Gan, Wenqi Wang, Dinghan Shen, Jiaji Huang, Wei Ping, Sanjeev Satheesh, Lawrence Carin

Topic Aware Neural Response Generation, AAAI 17

Chen Xing, Wei Wu, Yu Wu, Jie Liu, Yalou Huang, Ming Zhou, Wei-Ying Ma

往期精品内容推荐

斯坦福NLP大佬Chris Manning新课-《信息检索和网页搜索2019》分析

元学习-从小样本学习到快速强化学习-ICML2019

新书-计算机视觉、机器人及机器学习线性代数基础-最新版分享

多任务强化学习蒸馏与迁移学习

深度学习实战-从源码解密AlphGo Zero背后基本原理

2018/2019/校招/春招/秋招/自然语言处理/深度学习/机器学习知识要点及面试笔记

最新深度学习面试题目及答案集锦

历史最全-16个推荐系统开放公共数据集整理分享

一文告诉你Adam、AdamW、Amsgrad区别和联系,助你实现Super-convergence的终极目标

基于深度学习的文本分类6大算法-原理、结构、论文、源码打包分享

2018-深度学习与自然语言处理-最新教材推荐

李宏毅-深度学习与生成对抗学习基础-2018年(春)课程分享

自然语言处理深度生成模型相关资源、会议和论文分享相关推荐

  1. ICLR要搞深度生成模型大讨论,Max Welling和AAAI百万美元大奖得主都来了,Bengio是组织者之一...

    萧箫 发自 凹非寺 量子位 | 公众号 QbitAI 用深度生成模型搞科学发现,是不少AI大牛最近的研究新动向. 就在最新一届ICLR 2022上,包括Max Welling和Regina Barzi ...

  2. 《预训练周刊》第6期:GAN人脸预训练模型、通过深度生成模型进行蛋白序列设计

    No.06 智源社区 预训练组 预 训 练 研究 观点 资源 活动 关于周刊 超大规模预训练模型是当前人工智能领域研究的热点,为了帮助研究与工程人员了解这一领域的进展和资讯,智源社区整理了第6期< ...

  3. 【阿里云课程】深度生成模型基础,自编码器与变分自编码器

    大家好,继续更新有三AI与阿里天池联合推出的深度学习系列课程,本次更新内容为第11课中两节,介绍如下: 第1节:生成模型基础 本次课程是阿里天池联合有三AI推出的深度学习系列课程第11期,深度生成模型 ...

  4. 大规模计算时代:深度生成模型何去何从

    ©PaperWeekly 原创 · 作者|Chunyuan Li 单位|Microsoft Research Researcher 研究方向|深度生成模型 人工智能的核心愿望之一是开发算法和技术,使计 ...

  5. Chem. Sci. | 3D深度生成模型进行基于结构的从头药物设计

    本文介绍来自北京大学来鲁华教授课题组发表在Chemical Science上的文章"Structure-based de novo drug design using 3D deep gen ...

  6. 2020-4-22 深度学习笔记20 - 深度生成模型 5 (有向生成网络--sigmoid信念网络/可微生成器网络/变分自编码器VAE/生产对抗网络GAN/生成矩匹配网络)

    第二十章 深度生成模型 Deep Generative Models 中文 英文 2020-4-17 深度学习笔记20 - 深度生成模型 1 (玻尔兹曼机,受限玻尔兹曼机RBM) 2020-4-18 ...

  7. 1. 深度生成模型-扩散模型(非均衡热力学的深度无监督学习)

    扩散模型:利用非均衡热力学的深度无监督学习 Deep Unsupervised Learning using Nonequilibrium Thermodynamics 扩散模型:利用非均衡热力学的深 ...

  8. 朱俊彦团队推出首个基于内容的深度生成模型搜索算法!

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 点击进入-> CV 微信技术交流群 作者 | 李梅 转载自:AI科技评论  编辑 :陈彩娴 最近的生成 ...

  9. AAAI | 深度生成模型—NEVAE

    今天给大家介绍的是印度理工学院Niloy Ganguly教授课题组在AAAI2019发表的一篇关于分子生成的论文.作者基于VAE提出一种新的分子图生成模型NEVAE,其编码器和解码器经过特殊设计,通过 ...

最新文章

  1. win10 安装 python报错-已安装这个产品的另一版本
  2. python导入openpyxl报错问题,终于解决啦
  3. vue学习笔记——路由
  4. Redis常见面试题及答案模板
  5. 精简改良(生成树dp)
  6. c++ vs release没有exe_未来安全 | 第一次Geant4培训总结 | 有没有你关注的问题呢?...
  7. Matlab自定义函数的五种方法
  8. 嵌入式视频处理基础(四)
  9. java设计模式--基础思想总结--抽象类与架构设计思想
  10. 3d打印机c语言程序下载,C语言下载
  11. matlab subs eval,【荐】MATLAB求解符号表达式数值的方法:subs函数
  12. java roundup函数_随手记之Linux 2.6.32内核SYN flooding警告信息
  13. 关于CS找实习的不完整经验
  14. 每日一佳——Computational Rationalization: The Inverse Equilibrium Problem(Kevin Waugh et al. ,ICML ,2011)
  15. 深入研究glibc内存管理器原理及优缺点
  16. 从零开始搭建仿抖音短视频APP-后端开发粉丝业务模块(2)
  17. 催眠—潜意识的六个规则
  18. 外企面试,哪有你想象的那么难!
  19. [bzoj4889] [Tjoi2017]不勤劳的图书管理员
  20. oracle erp和金蝶,什么是erp系统,集体和个人选择时有哪些不同

热门文章

  1. excel转实现pdf、图片、base64互转
  2. 实体业怎么通过线上渠道获客 互联网获客方法
  3. 目前在国际范围内有哪些著名的区块链“独角兽企业”?
  4. HAWQ上安装PXF插件,并访问HDFS文件数据
  5. 陶哲轩实分析:三大序列分析和归纳
  6. 符合自然的饮食睡眠是最好的养生
  7. [转]《做第一等的事业,做中国的脊梁》 ——清华大学校长在本科生毕业典礼的讲话
  8. IDEA svn上传文件冲突时处理
  9. android 健身,Android静态自行车 把健身房体验带回家
  10. 搜索引擎优化SEO工具集合[转]