大多数的NLG(Natural language generation)系统都使用规则和启发式,并且倾向于在没有人类语言的自然变化的情况下产生单一风格,本文提出了一种基于语义控制的长短时记忆网络(LSTM)的统计NLG。它可以通过使用简单的交叉熵训练准则,在没有任何启发式的情况下,通过联合优化其句子规划和表面实现组件来学习未对齐的数据,并通过随机抽取网络输出来获得高质量的语言变异。

本文的突出贡献在于引入关键词,传统的算法例如LSTM,Seq2Seq等都没有关键词控制,都是通过随机变量为输入,由网络自动生成后续数据。

本文的核心点在于改进LSTM网络,引入了DA(dialogue act)机制,加入了关键词。关键词的表示形式为one-hot编码,编码的长度为关键词表长度,其中0表示该关键词不表达,1表示输入该关键词。DA单元扮演了句子规划的角色,因为它在生成过程中能够精确编码输入信息的表面实现。DA单元决定为将来的时间步骤保留哪些信息,并丢弃其他信息

如图所示,在LSTM的数学公式表达里面,通过引入DA单元,ct的表达式增加了一项,这一项直接影响了整个生成句子的规划。

Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems(阅读理解)相关推荐

  1. 论文笔记翻译——Enhanced LSTM for Natural Language Inference(ESIM)

    文章目录 0.前言 1. 模型结构 1.1 input encoding 1.2 local inference modeling 1.3 inference composition 2. 模型实现 ...

  2. Enhanced LSTM for Natural Language Inference-学习笔记

    Enhanced LSTM for Natural Language Inference 自然语言推理(NLI: natural language inference)问题:即判断能否从一个前提p中推 ...

  3. 基于生成对抗网络的自然语言生成(Natural language generation with Generative Adversarial Networks)

    作者:禅与计算机程序设计艺术 基于生成对抗网络的自然语言生成(Natural language generation with Generative Adversarial Networks) 引言 ...

  4. ESIM:Enhanced LSTM for Natural Language Inference

    原文链接:https://aclanthology.org/P17-1152.pdf ACL 2017 概述 对于自然语言推理任务,Bowman等人在2015年提出了一个大数据集,大多数工作就开始使用 ...

  5. Recent Trends in Deep Learning Based Natural Language Processing(arXiv)笔记

    深度学习方法采用多个处理层来学习数据的层次表示,并在许多领域中产生了最先进的结果.最近,在自然语言处理(NLP)的背景下,各种模型设计和方法蓬勃发展.本文总结了已经用于大量NLP任务的重要深度学习相关 ...

  6. Natural Language Inference Over Interaction Space(DIIN)阅读笔记

    文章目录 Introduction Model Interactive Inference Network(IIN) Densely Interactive Inference Network(DII ...

  7. ESIM (Enhanced LSTM for Natural Language Inference)

    ESIM历史意义: 1. 深层次的挖掘文本间的语义关系特征 2.加入文本语法结构信息 本文主要结构如下: 一.Abstract 1.推理是人工智能的关键体现 2.SNLI为推理模型提供数据支撑 3.文 ...

  8. AUGNLG: Few-shot Natural Language Generation using Self-trained Data Augmentation翻译

    摘要 自然语言生成(NLG)是一个面向任务对话系统中的关键组成部分,它将结构化的语义表示(MR)转换为自然语言.对于大型对话系统,在具有超过数百个意图和数千个槽的情况下,基于模板的方法和基于模型的方法 ...

  9. 【论文阅读笔记】BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translati

    BART:去噪序列到序列的预训练自然语言生成.翻译和理解 动力 自监督方法在广泛的NLP任务中取得了显著的成功.最成功的方法是masked language model的变体去噪的自编码器.训练去噪的 ...

最新文章

  1. 线性表的存储结构总结
  2. SRIO学习(五)——SerDes Macro(串行解串宏)
  3. iphone完整版的http上传请求协议
  4. H3C 多区域MSTP配置
  5. 利用多线程实现报表的高效导出
  6. Crontab命令--Linux
  7. 选择开源项目什么最重要?
  8. 服务器升级文件 不推送就无法打开吗,Win7升Windows10有获取通知,但是就不推送的解决方法...
  9. 微信小程序实现浮动按钮
  10. EdrawMax思维导图,EdrawMax组织结构图
  11. 【Python自然语言处理】读书笔记:第七章:从文本提取信息
  12. 蛙蛙推荐:蛙蛙牌关键词提取算法
  13. css浮动以及清除浮动
  14. 7-2 拍7令四 (100 分)
  15. (深度神经网络多.py文件)python打包过程遇到的问题记录
  16. 项目管理必备工具——甘特图
  17. ant design vue:upload打开选择文件弹框前弹出确认框
  18. 《Python黑帽子:黑客与渗透测试编程之道》 Scapy:网络的掌控者
  19. PyCharm官网无法访问的解决办法
  20. 微软杀毒软件Forefront技术不过关

热门文章

  1. 第一个多层感知器实例:印第安人糖尿病诊断
  2. 新东方背单词3.4下载
  3. lda 吗 样本中心化 需要_PCA和LDA
  4. Python机器学习库CatBoost学习使用
  5. win7安装mysql5.7.16后,执行update语句导致mysql服务停止
  6. 高中英语名人名言(二)
  7. STM8驱动LCD段码屏
  8. go-pitaya学习笔记(11) - 测试集群rpc
  9. 设计模式之MVC和MVT
  10. ACM在线模板(收藏贴)