论文阅读笔记:An End-to-End Trainable Neural Network Model with Belief Tracking for Task-Oriented Dialog
提示:阅读论文时进行相关思想、结构、优缺点,内容进行提炼和记录,论文和相关引用会标明出处。
文章目录
- 前言
- Abstract
- Introduction
- Related Work
- Proposed Method
- Experiments
- Conclusions
前言
标题:An End-to-End Trainable Neural Network Model with Belief Tracking for Task-Oriented Dialog
原文链接:Link
Github:NLP相关Paper笔记和实现
说明:阅读论文时进行相关思想、结构、优缺点,内容进行提炼和记录,论文和相关引用会标明出处,引用之处如有侵权,烦请告知删除。
转载请注明:DengBoCong
Abstract
我们提出了面向任务的对话系统的新型端到端可训练神经网络模型,该模型能够跟踪对话状态,基于知识(KB)的API调用,并将结构化的KB查询结果合并到系统响应中,从而成功完成面向任务的对话。通过在对话历史上的进行belief tracking和KB结果处理,进而模型产生结构良好的系统响应。我们使用从第二个Dialog State Tracking Challenge(DSTC2)语料库转换而来的数据集在饭店搜索域中评估模型。实验结果表明,在给定对话历史记录的情况下,该模型可以很好地跟踪对话状态。此外,我们的模型在产生适当的系统响应方面表现出令人鼓舞的结果,其使用基于每个响应的准确性评估指标优于以前的端到端可训练神经网络模型。
Introduction
端到端可训练神经网络模型可以直接针对最终系统目标函数(例如任务成功率)进行优化,从而缓解了可信分配和在线适应的挑战。在这项工作中,我们提出了面向任务的对话的端到端可训练神经网络模型,该模型将统一网络应用于belief tracking,基于知识(KB)操作和响应创建。该模型能够跟踪对话状态,与KB交互以及将结构化KB查询结果合并到系统响应中,从而成功完成面向任务的对话框。我们表明,在给出对话历史记录的情况下,我们提出的模型可以有效地跟踪状态。与先前的端到端可训练神经网络模型相比,我们的模型还证明了在提供适当的系统响应和进行面向任务的对话方面的有更好的性能。
Related Work
- Dialog State Tracking
- 在口语对话系统中,对话状态跟踪或belief tracking是指在可能的对话状态上保持分布的任务,这些状态直接确定系统的动作。
- 使用诸如CRF或RNN之类的序列模型进行判别的方法可以灵活地探索任意特征并实现最新的DST性能,从而解决了生成模型的局限性。
- End-to-End Task-Oriented Dialog Models
- 我们的模型使用统一的网络进行信念跟踪,知识操作和响应生成,以充分探索可以在不同任务之间共享的知识
Proposed Method
我们将面向任务的对话建模为一个多任务序列学习问题,其组件用于编码用户输入,跟踪信念状态,发出API调用,处理KB结果以及生成系统响应。模型架构如下图所示,对话框中的多轮序列使用LSTM递归神经网络进行编码, 根据对话历史记录,会话状态保持在LSTM状态。LSTM状态向量用于生成:(1)通过从非词法化系统响应候选列表中选择句结构;(2)信念跟踪器中每个插槽值的概率分布;(3)指向检索到的KB结果中与用户查询匹配的实体。通过用预测的插槽值和实体属性值替换去词化的token来生成最终的系统响应。
- Utterance Encoding:这里的话语编码是指将单词序列编码为连续的密集向量。我们使用双向LSTM将用户输入编码为句向量,其中用户输入第 kkk 轮对话共 TkT_kTk 个 单词表示为Uk=(w1,w2,...,wTk)U_k=(w_1,w_2,...,w_{T_k})Uk=(w1,w2,...,wTk)。用户的句向量 UkU_kUk 表示为 Uk=[hTkUk→,h1Uk←]U_k=[\overrightarrow{h_{T_k}^{U_k}},\overleftarrow{h_{1}^{U_k}}]Uk=[hTkUk,h1Uk],hTkUk→\overrightarrow{h_{T_k}^{U_k}}hTkUk和 h1Uk←\overleftarrow{h_{1}^{U_k}}h1Uk 是第 kkk 轮最后的前向和反向的句级LSTM状态。
- Belief Tracking:信念跟踪(或对话状态跟踪)通过沿对话顺序积累信息来维持和调整对话状态(例如用户的目标)。在第 kkk 轮从用户输入中收集新信息后,神经对话模型会更新每种插槽类型 m∈Mm∈Mm∈M 的候选值的概率分布 P(Skm)P(S_{k}^{m})P(Skm)。在回合 kkk,对话级LSTM(LSTMD)更新其隐藏状态 sks_ksk,并在接收到用户输入编码 UkU_kUk 和 K_B$ 指示器 IkI_kIk(将在下面的部分中进行说明)之后,使用它来推断用户目标的任何更新。
sk=LSTMD(sk−1,[Uk,Ik])s_k=LSTM_D(s_{k-1}, [U_k, I_k])sk=LSTMD(sk−1,[Uk,Ik])P(Skm∣U≤k,I≤k)=SlotDistm(sk)P(S_{k}^{m}|U_{\leq k}, I_{\leq k}) = SlotDist_m(s_k)P(Skm∣U≤k,I≤k)=SlotDistm(sk)
其中,SlotDistm(sk)SlotDist_m(s_k)SlotDistm(sk)是在插槽类型 m∈Mm∈Mm∈M 上具有softmax激活功能的多层感知器(MLP) - Issuing API Calls:基于对话状态,模型可以基于信念跟踪输出发出API调用以查询KB。该模型首先生成一个简单的API调用命令模板。 通过使用信念追踪器针对每个目标插槽的最佳假设替换命令模板中的插槽类型token,产生最终的API调用命令。
- KB Results Processing:一旦神经对话模型接收到KB查询结果,它将通过从返回的列表中选择实体来向用户建议选项。KB搜索或数据库查询的输出通常具有定义明确的结构,并且实体属性与实体索引相关联。在对话的第 kkk 轮,将二进制KB指示器 IkI_kIk 传递给神经对话模型。该指标由上一次API调用中检索到的实体数和当前实体指针决定。当系统处于向用户建议实体的状态时,如果接收到零值 IkI_kIk,则该模型很可能会通知用户与当前查询匹配的实体不可用,否则,如果 IkI_kIk 有值,该模型可能会根据实体指针 P(Ek)P(E_k)P(Ek) 的更新概率分布从检索结果中选择一个实体:
P(Ek∣U≤k,I≤k)=EntityPointerDist(sk)P(E_k|U_{\leq k}, I_{\leq k}) = EntityPointerDist(s_k)P(Ek∣U≤k,I≤k)=EntityPointerDist(sk)
其中,其中 EntityPointerDistEntityPointerDistEntityPointerDist 是具有softmax激活的MLP。 - System Response Generation:在对话的第 kkk 轮,从非词化响应候选列表中选择句结构 RkR_kRk。最终的系统响应是通过用预测的插槽值和实体属性值替换非词性化token来产生的。
- Model Training:我们通过找到参数集 θθθ 来训练神经对话模型,该参数集 θθθ 最小化了目标标签,实体指针和去词化系统响应的预测分布和真实分布的交叉熵:
minΘ∑k=1K−[∑m=1MλSmlogP(Skm∗∣U≤k,I≤k;Θ)\underset{\Theta}{min}\sum_{k=1}^{K}-[\sum_{m=1}^{M}\lambda_{S^m}logP(S_{k}^{m*}|U_{\leq k},I_{\leq k};\Theta )Θmink=1∑K−[m=1∑MλSmlogP(Skm∗∣U≤k,I≤k;Θ)+λElogP(Ek∗∣U≤k,I≤k;Θ)+\lambda_ElogP(E_{k}^{*}|U_{\leq k},I_{\leq k};\Theta )+λElogP(Ek∗∣U≤k,I≤k;Θ)+λRlogP(Rk∗∣U≤k,I≤k;Θ)]+\lambda_RlogP(R_{k}^{*}|U_{\leq k}, I_{\leq k};\Theta )]+λRlogP(Rk∗∣U≤k,I≤k;Θ)]
其中,其中 λsλ_sλs 是每个系统输出成本的线性插值权重。Skm∗S_{k}^{m∗}Skm∗,EK∗E_K^*EK∗和Rk∗R_k^*Rk∗ 是第 kkk 轮每个任务的真实标签。 - Alternative Model Designs:直观地,如果模型被明确告知目标值估计并且知道其先前对用户做出的响应,则该模型可能会提供更好的响应。因此,我们设计并评估了一些替代模型架构,以验证这种假设:
- 具有先前发出的非词化系统响应的模型连接回对话级LSTM状态:sk=LSTMD(sk−1,[Uk,Ik,Rk−1])s_k=LSTM_D(s_{k-1},[U_k,I_k,R_{k-1}])sk=LSTMD(sk−1,[Uk,Ik,Rk−1])
- 具有先前发出的插槽标签的模型连接回对话级LSTM状态:sk=LSTMD(sk−1,[Uk,Ik,Sk−11,...,Rk−1M])s_k=LSTM_D(s_{k-1},[U_k,I_k,S_{k-1}^{1},...,R_{k-1}^{M}])sk=LSTMD(sk−1,[Uk,Ik,Sk−11,...,Rk−1M])
- 具有先前发出的响应和插槽标签的模型都已连接回对话框LSTM状态:sk=LSTMD(sk−1,[Uk,Ik,Rk−1,Sk−11,...,Rk−1M])s_k=LSTM_D(s_{k-1},[U_k,I_k,R_{k-1},S_{k-1}^{1},...,R_{k-1}^{M}])sk=LSTMD(sk−1,[Uk,Ik,Rk−1,Sk−11,...,Rk−1M])
Experiments
我们使用DSTC2中的数据进行模型评估。 在这项研究中,我们通过保留对话状态注释并添加系统命令(API调用)来结合原始的DSTC2语料库和此转换版本。下表汇总了该数据集的统计信息。
我们使用Adam优化方法进行批量为32的小批量模型训练,在模型训练期间,具有dropout的正则化应用于非循环连接[26],dropout率为0.5。我们将梯度的最大范数设置为5,以防止梯度爆炸。对话层LSTM和话语层LSTM的隐藏层大小分别设置为200和150,大小为300的单词嵌入是随机初始化的,我们还尝试使用在Google新闻数据集上受过训练的预训练词向量来初始化词嵌入。
下表显示了使用不同用户话语编码方法和不同单词嵌入初始化的模型的评估结果:
下表显示了不同的递归模型架构的评估结果:
下表中的结果所示,我们的系统可实现与最新系统相当的信念跟踪性能:
即使使用相同的评估度量,我们的模型在设计上的设置也与下表中的其他已发布模型相比略有不同
Conclusions
在这项工作中,我们为面向任务的对话系统提出了一种新颖的端到端可训练神经网络模型。该模型能够跟踪对话的状态,通过发出API调用与知识交互,并将结构化的查询结果合并到系统响应中,从而成功完成面向任务的对话框。在餐厅搜索域的评估中,使用来自第二个“Dialog State Tracking Challenge”语料库的转换数据集,我们提出的模型显示了在对话轮次序列上跟踪对话状态的鲁棒性能。该模型还展示了在生成适当的系统响应方面的有不错的性能,优于以前的端到端可训练神经网络模型。
论文阅读笔记:An End-to-End Trainable Neural Network Model with Belief Tracking for Task-Oriented Dialog相关推荐
- 论文阅读笔记|NNLP: A Primer on Neural Network Models for Natural Language Processing - Yoav Goldberg 2015
书籍简介 本篇综述可看作神经网络模型应用于自然语言处理的启蒙读物.由于时间跨度较大,文中提到的模型比较古早,但此文包含该领域需要掌握的基础概念,且篇幅不长,通俗易懂,有一定价值,适合初学者阅读.以下是 ...
- 【异构图笔记,篇章3】GATNE论文阅读笔记与理解:General Attributed Multiplex HeTerogeneous Network Embedding
[异构图笔记,篇章3]GATNE论文阅读笔记与理解:General Attributed Multiplex HeTerogeneous Network Embedding 上期回顾 论文信息概览 论 ...
- 论文笔记 NLPCC 2016|A Convolution BiLSTM Neural Network Model for Chinese Event Extraction
文章目录 1 简介 1.1 动机 1.2 创新 2 背景知识 3 方法 3.1 触发词标记 3.1.1 单词级别模型 3.1.2 字符级别模型 3.2 论元标记 4 实验 4.1 触发词标记 4.2 ...
- 论文阅读笔记:Deep Object Co-segmentation via Spatial-Semantic Network Modulation(AAAI2020)
协同分割论文阅读:Deep Object Co-segmentation via Spatial-Semantic Network Modulation(AAAI2020) 论文原文 代码 提出 ...
- 论文阅读笔记:A Network-based End-to-End Trainable Task-oriented Dialogue System
提示:阅读论文时进行相关思想.结构.优缺点,内容进行提炼和记录,论文和相关引用会标明出处. 文章目录 前言 Abstract Introduction Model Intent Network Bel ...
- 【论文阅读笔记】Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference
该方法的简称为:IAO 该论文提出了一种允许网络在推测时只使用整数计算的方法,即 float32 --> int8. 该文在MobileNets等已经压缩过的网络进行量化,测试数据集为I ...
- 论文阅读笔记:Frequency-Aware Contrastive Learning for Neural Machine Translation
论文链接:https://arxiv.org/abs/2112.14484 author={Zhang, Tong and Ye, Wei and Yang, Baosong and Zhang, L ...
- [论文阅读] EIE: Efficient Inference Engine on Compressed Neural Network
这是收录于ISCA16(International Symposium on Computer Architecture). 其是Deep Compression以及DSD的系列篇,其在Deep Co ...
- DnCNN论文阅读笔记【MATLAB】
DnCNN论文阅读笔记 论文信息: 论文代码:https://github.com/cszn/DnCNN Abstract 提出网络:DnCNNs 关键技术: Residual learning an ...
- 全卷积(FCN)论文阅读笔记:Fully Convolutional Networks for Semantic Segmentation
论文阅读笔记:Fully Convolutional Networks forSemantic Segmentation 这是CVPR 2015拿到best paper候选的论文. 论文下载地址:Fu ...
最新文章
- android调用h5预加载图片,使用HTML5的页面资源预加载(Link prefetch)功能加速你的页面加载速度...
- 重磅开源人工智能纹理分割自动分割由参考纹理覆盖图像自监督学习
- sql 备份.bat
- 皮一皮:成人世界的潜台词...
- linux系统 opt扩容,Linux虚拟机新增加了块100G硬盘后,把空间分配到/opt下
- ElasticSearch-Hadoop:从Hadoop到ElasticSearch索引产品视图计数和客户顶部搜索查询
- linux 子目录 挂载,linux – NFS4 – 挂载多个子目录
- IndexTank全文检索引擎设计分析
- asp.net 调用echarts显示图表控件随浏览器自适应解决方案
- Matlab实现人脸识别
- 初级程序员面试题总结(一):
- 一般线性模型混合线性模型广义线性模型【转】
- delphi 可以自定义边框的文本框TSkinNormalEdit思路(QQ2011风格)
- 21个2021年软件开发趋势预测
- gnome桌面终端程序 Guake
- #今日论文推荐#罗格斯大学王灏:保持孩子般的好奇心
- opencv给图片加滑动条调节窗口大小
- 大数据测试平台搭建记录(CDH集群)
- java excel图片压缩_java将HSSFWorkbook生成的excel压缩到zip中
- 关于网络很快 但是打不开腾讯相关网页的解决办法 亲测有效!
热门文章
- 用Python爬取英雄联盟(lol)全部皮肤
- 如何避免在IE中执行window.close()后弹出一个新IE窗口
- RK3399平台开发系列讲解(电源管理篇)11.10、PMIC(生产者)驱动数据结构体
- Wannacry浅析
- mysql migration toolkit报错_MYSQL Migration Toolkit 安装
- migration mysql_MySQL Migration Tool 使用 | 学步园
- java怎么用蓝牙传_[技巧]蓝牙传输JAVA简易教程(图文及小常识)
- 7个高清图片素材网,免费/可商用
- 游戏出海欧洲有哪些可以接入的支付渠道
- 用Arduino和蓝牙模块做一个开门装置