Enhanced LSTM for Natural Language Inference

ESIM是ACL2017的一篇论文,在当时成为各个NLP比赛的杀器,直到现在仍是入门自然语言推理值得一读的文章。

本文根据ESIM原文以及pytorch代码实现对ESIM模型进行总结,有些地方的叙述保持了与代码一致而和原文不一致,比如在embedding处与原文就不完全一致,原论文只使用了我下面所写的initial embedding,不过在代码性能上应该是不会比原文的更差的,因为代码过长,仅放一些伪代码帮助理解。

介绍 Introduction

自然语言推断 NLI

NLI任务主要是关于给定前提premise和假设hypothesis,要求判断p和h的关系,二者的关系有三种:1.不相干 neural,2.冲突 contradiction,即p和h有矛盾,3.蕴含 entailment,即能从p推断出h或两者表达的是一个意思。

为什么要研究自然语言推理呢?简单来讲,机器学习的整个系统可以分为两块,输入,输出。输入要求我们能够输入一个机器能理解的东西,并且能够很好的表现出数据的特点,输出就是根据需要,生成我们需要的结果。也可以说整个机器学习可以分为Input Representation和Output Generation。因此,如何全面的表示输入就变得非常重要了。而自然语言推理是一个分类任务,使用准确率就可以客观有效的评价模型的好坏;这样我们就可以专注于语义理解和语义表示。并且如果这部分做得好的话,例如可以生成很好的句子表示的向量,那么我们就可以将这部分成果轻易迁移到其他任务中,例如对话,问答等。这一切都说明了研究自然语言推理是一个非常重要而且非常有意义的事情。

下面从Stanford Natural Language Inference (SNLI) corpus数据集里举几个例子:

A woman with a green headscarf , blue shirt and a very big grin(咧嘴笑).

The woman is very happy .

上面两个句子就是entailment(蕴含),因为女人在笑着,所以说她happy是可以推断出来的。

A woman with a green headscarf , blue shirt and a very big grin .

The woman is young .

neutral

冲突矛盾(contradiction)的例子

A woman with a green headscarf , blue shirt and a very big grin.

The woman has been shot .

contradiction

她中枪了怎么可能还咧嘴笑呢?

模型架构 Models

输入编码 Input Encoding

输入两个句子,从one-hot经过embedding层,有两个embedding层,分别是initial embedding(ie) 和 pretrained embedding(pe),都使用预训练好的词向量初始化,词向量维度为lll,不同的是 ie 的词表规模是训练集语料的单词个数,pe 的词表规模就是预训练文件所包含的单词数,且 pe 参数被冻结,ie中没被包含在预训练文件的OOV单词使用高斯分布随机生成,且所有embedding的方差都被normalize到1,得到premise=a=(a1,...,ala)premise = a = (a_{1}, ..., a_{l_{a}})premise=a=(a1,...,ala)hypothesis=b=(b1,...,blb)hypothesis = b = (b_{1},...,b_{l_{b}})hypothesis=b=(b1,...,blb),每个单词的表示是一个 R2lR^{2l}R2l 的向量,由其在 ie 和 pe 中对应的词向量 concat 得到,lll 为预训练词向量维度,

src_words, src_extwords_embed, src_lens, src_masks,
tgt_words, tgt_extwords_embed, tgt_lens, tgt_masks = tinputs
src_dyn_embed = self.word_embed(src_words)
tgt_dyn_embed = self.word_embed(tgt_words)
src_embed = torch.cat([src_dyn_embed, src_extwords_embed], dim=-1)
tgt_embed = torch.cat([tgt_dyn_embed, tgt_extwords_embed], dim=-1)

之后使用双向LSTM分别对a和b进行encoding,得到两个句子的隐层状态表示,论文中隐层向量的维度等于预训练词向量的维度,因为是bidirectional = True,所以 ai‾,bj‾∈R2l\overline{\mathbf{a}_{i}},\overline{\mathbf{b}_{j}} \in R^{2l}ai,bjR2l
a‾i=BiLSTM⁡(a,i),∀i∈[1,…,ℓa]b‾j=BiLSTM⁡(b,j),∀j∈[1,…,ℓb]\begin{array}{l}\overline{\mathbf{a}}_{i}=\operatorname{BiLSTM}(\mathbf{a}, i), \forall i \in\left[1, \ldots, \ell_{a}\right] \\ \overline{\mathbf{b}}_{j}=\operatorname{BiLSTM}(\mathbf{b}, j), \forall j \in\left[1, \ldots, \ell_{b}\right] \end{array} ai=BiLSTM(a,i),i[1,,a]bj=BiLSTM(b,j),j[1,,b]

src_hiddens = self.lstm_enc(src_embed, src_lens)
tgt_hiddens = self.lstm_enc(tgt_embed, tgt_lens)

局部推理 Locality of inference

就是使用attention建立p和h之间的联系,即进行对齐操作,a和b中两个单词的注意力权重由向量内积得到。
eij=a‾iTb‾j\begin{array}{l} e_{ij} = \overline{\mathbf{a}}_{i}^{T}\overline{\mathbf{b}}_{j} \end{array} eij=aiTbj

Local inference collected over sequences(不知道咋翻译)

接着利用得到的注意力权重,对b进行加权求和,即从b中选取与a‾i\overline{a}_{i}ai相关的部分来得到表示a~i\tilde{a}_{i}a~i,对b同理
a~i=∑j=1ℓbexp⁡(eij)∑k=1ℓbexp⁡(eik)b‾j,∀i∈[1,…,ℓa]b~j=∑i=1ℓaexp⁡(eij)∑k=1ℓaexp⁡(ekj)a‾i,∀j∈[1,…,ℓb]\begin{aligned} \tilde{\mathbf{a}}_{i} &=\sum_{j=1}^{\ell_{b}} \frac{\exp \left(e_{i j}\right)}{\sum_{k=1}^{\ell_{b}} \exp \left(e_{i k}\right)} \overline{\mathbf{b}}_{j}, \forall i \in\left[1, \ldots, \ell_{a}\right] \\ \tilde{\mathbf{b}}_{j} &=\sum_{i=1}^{\ell_{a}} \frac{\exp \left(e_{i j}\right)}{\sum_{k=1}^{\ell_{a}} \exp \left(e_{k j}\right)} \overline{\mathbf{a}}_{i}, \forall j \in\left[1, \ldots, \ell_{b}\right] \end{aligned} a~ib~j=j=1bk=1bexp(eik)exp(eij)bj,i[1,,a]=i=1ak=1aexp(ekj)exp(eij)ai,j[1,,b]

similarity_matrix = premise_batch.bmm(hypothesis_batch.transpose(2, 1).contiguous())# hyp_mask shape = [batch_size, tgt_len]
prem_hyp_attn = masked_softmax(similarity_matrix, hypothesis_mask)
# prem_mask shape = [batch_size, src_len]
hyp_prem_attn = masked_softmax(similarity_matrix.transpose(1, 2).contiguous(), premise_mask)# Weighted sums of the hypotheses for the the premises attention,
# [batch_size, src_len, hidden_size]
src_hiddens_att = weighted_sum(hypothesis_batch,prem_hyp_attn,premise_mask)
# [batch_size, tgt_len, hidden_size]
tgt_hiddens_att = weighted_sum(premise_batch,hyp_prem_attn,hypothesis_mask)

局部推理信息增强 Enhancement of local inference information

现在a的每个单词有两个vector表示,分别是a‾i\overline{\mathbf{a}}_{i}aia~i\tilde{\mathbf{a}}_{i}a~i,b亦然,再对两个vector分别做element-wise的减法与乘法,并把它们 concat 到一起,得到维度为原来四倍长的vector,
ma=[a‾;a~;a‾−a~;a‾⊙a~]mb=[b‾;b~;b‾−b~;b‾⊙b~]\begin{array}{l}\mathbf{m}_{a}=[\overline{\mathbf{a}} ; \tilde{\mathbf{a}} ; \overline{\mathbf{a}}-\tilde{\mathbf{a}} ; \overline{\mathbf{a}} \odot \tilde{\mathbf{a}}] \\ \mathbf{m}_{b}=[\overline{\mathbf{b}} ; \tilde{\mathbf{b}} ; \overline{\mathbf{b}}-\tilde{\mathbf{b}} ; \overline{\mathbf{b}} \odot \tilde{\mathbf{b}}]\end{array} ma=[a;a~;aa~;aa~]mb=[b;b~;bb~;bb~]

src_diff_hiddens = src_hiddens - src_hiddens_att
src_prod_hiddens = src_hiddens * src_hiddens_att
# [batch_size, src_len, 2 * lstm_hiddens * 4] 乘2是双向
src_summary_hiddens = torch.cat([src_hiddens, src_hiddens_att, src_diff_hiddens, src_prod_hiddens], dim=-1)tgt_diff_hiddens = tgt_hiddens - tgt_hiddens_att
tgt_prod_hiddens = tgt_hiddens * tgt_hiddens_att
tgt_summary_hiddens = torch.cat([tgt_hiddens, tgt_hiddens_att, tgt_diff_hiddens, tgt_prod_hiddens], dim=-1)

推理合成 Inference Composition

继续使用LSTM提取特征,得到两个句子因果关系表示。因为 concat 操作会使得参数量数倍增长,为了防止参数过多导致的过拟合,把ma\mathbf{m}_{a}mamb\mathbf{m}_{b}mb经过一个激活函数为ReLU的全连接层,将维度从4∗2∗hiddensize4*2*hidden~size42hiddensize投影到hiddensizehidden~sizehiddensize,这样之后再经过一个BiLSTM层,得到
va,i=BiLSTM⁡(ma,i),∀i∈[1,…,ℓa]vm,j=BiLSTM⁡(mb,j),∀j∈[1,…,ℓb]\begin{array}{l}\mathbf{v}_{a,i}=\operatorname{BiLSTM}(\mathbf{m}_{a, i}), \forall i \in\left[1, \ldots, \ell_{a}\right] \\ \mathbf{v}_{m,j}=\operatorname{BiLSTM}(\mathbf{m}_{b, j}), \forall j \in\left[1, \ldots, \ell_{b}\right]\end{array} va,i=BiLSTM(ma,i),i[1,,a]vm,j=BiLSTM(mb,j),j[1,,b]

src_hiddens_proj = self.mlp(src_summary_hiddens)
tgt_hiddens_proj = self.mlp(tgt_summary_hiddens)
# [batch_size, src_len, 2 * lstm_hiddens]
src_final_hiddens = self.lstm_dec(src_hiddens_proj, src_lens)
tgt_final_hiddens = self.lstm_dec(tgt_hiddens_proj, tgt_lens)

池化层 Pooling

将组成整句话的sequence vectors分别通过 average pooling 和 max pooling(element-wise),变成单独的一个vector,并将它们再次 concat 起来,得到能完整表示p和h以及两者之间关系的final向量v
va,ave =∑i=1ℓava,iℓa,va,max⁡=max⁡i=1ℓava,ivb,ave=∑j=1ℓbvb,jℓb,vb,max⁡=max⁡j=1vb,jv=[va,ave;va,max⁡;vb,ave;vb,max⁡]\begin{aligned} \mathbf{v}_{a, \text { ave }}=& \sum_{i=1}^{\ell_{a}} \frac{\mathbf{v}_{a, i}}{\ell_{a}}, \quad \mathbf{v}_{a, \max }=\max _{i=1}^{\ell_{a}} \mathbf{v}_{a, i} \\ \mathbf{v}_{b, \mathrm{ave}}=& \sum_{j=1}^{\ell_{b}} \frac{\mathbf{v}_{b, j}}{\ell_{b}}, \quad \mathbf{v}_{b, \max }=\max _{j=1} \mathbf{v}_{b, j} \\ \mathbf{v} &=\left[\mathbf{v}_{a, \mathrm{ave}} ; \mathbf{v}_{a, \max } ; \mathbf{v}_{b, \mathrm{ave}} ; \mathbf{v}_{b, \max }\right] \end{aligned} va,ave=vb,ave=vi=1aava,i,va,max=i=1maxava,ij=1bbvb,j,vb,max=j=1maxvb,j=[va,ave;va,max;vb,ave;vb,max]
最后将他们送入分类层,分类层包括两个全连接层,中间是tanh激活函数,输出维度为标签种类个数。

hiddens = torch.cat([src_hidden_avg, src_hidden_max, tgt_hidden_avg, tgt_hidden_max], dim=1)
# [batch_size, tag_size]
outputs = self.proj(hiddens)

实验 Experiments

数据集 Data

数据集使用的是Stanford Natural Language Inference (SNLI) corpus,每条数据是三个句子,分别代表premise, hypothesis和tag

训练参数设置 Training

使用Adam优化函数,lr=0.0004,batch_size=32,所有LSTM的隐层状态维度皆为300,dropout也被在各个层中使用且p=0.5,预训练词向量使用的是glove.840B.300d,在SNLI数据集上达到了88%的acc。

HIM是使用Tree-LSTM引入了句法信息的方法,较为复杂不再赘述,有兴趣的同学可以去阅读原文。

自然语言推理入门:ESIM相关推荐

  1. python自然语言处理入门教程(一)

    1.NLTK自然语言处理工具包 1.1 NLTK简介 NLTK是构建Python程序与人类语言数据工作的主要平台.它提供了易于使用的界面,以超过50语料库和词汇资源,如WordNet的,连同一套文字处 ...

  2. 自然语言推理:微调BERT

    自然语言推理:微调BERT Natural Language Inference: Fine-Tuning BERT SNLI数据集上的自然语言推理任务设计了一个基于注意力的体系结构.现在通过微调BE ...

  3. 自然语言推理:使用注意力机制

    自然语言推理:使用注意力机制 Natural Language Inference: Using Attention 自然语言推理任务和SNLI数据集.鉴于许多模型都是基于复杂和深层架构的,Parik ...

  4. 自然语言推理和数据集

    自然语言推理和数据集 Natural Language Inference and the Dataset 情绪分析的问题.此任务旨在将单个文本序列分类为预定义的类别,例如一组情感极性.然而,当需要判 ...

  5. 【转载】自然语言推理介绍

    原文链接 自然语言推理介绍 自然语言推理作为自然语言理解的一个重要组成部分,在整个自然语言理解中扮演着重要的角色,接下里我将对自然语言推理的现状做一简单总结,以下内容是我的小组分享的记录版. 自然语言 ...

  6. 《自然语言处理入门》不是 NLP 学习路上的万能药

    <自然语言处理入门>是图灵 2019 年 10 月出版的一本 NLP 领域的入门图书,作者是何晗(网名 hankcs,HanLP 作者.「码农场」博客博主).图书上架之后得到了广大的读者的 ...

  7. 【实战教程】NLP-Beginner:自然语言处理入门练习

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 今天给大家分享一门很好的NLP入门学习实战仓库,话不多说,学它!!! 此项目完成了 ...

  8. NLP汉语自然语言处理入门基础知识介绍

    NLP汉语自然语言处理入门基础知识介绍 自然语言处理定义: 自然语言处理是一门计算机科学.人工智能以及语言学的交叉学科.虽然语言只是人工智能的一部分(人工智能还包括计算机视觉等),但它是非常独特的一部 ...

  9. NLP-Beginner:自然语言处理入门练习-任务一

    NLP-Beginner:自然语言处理入门练习 任务一:基于机器学习的文本分类 深度学习项目,在训练之前,一般均会对数据集做shuffle,打乱数据之间的顺序,让数据随机化,这样可以避免过拟合. Ba ...

最新文章

  1. winxp运行html代码,关于WinXP系统实现自动化运行的操作技巧
  2. 自动延时跳转到指定页面JS脚本代码
  3. python有道翻译-Python调用有道词典翻译
  4. 【Android 逆向】substrate 框架 ( substrate 简介 | substrate 相关文档资料 )
  5. (JAVA学习笔记) 异常处理
  6. ITK:提取给定的标签对象
  7. Web前端开发JavaScript基础(3)
  8. Ubuntu SSH root user cannot login
  9. Facebook妥协了,React回归
  10. 22.使用非阻塞IO 1
  11. linux jenkins自动部署,【linux】【jenkins】自动化部署一 安装jenkins
  12. 共享onload事件
  13. ewebeditor高版本=5.50day
  14. linux使用rpm重装jdk
  15. 【强烈推荐】国土档案管理信息系统产品使用说明书系列目录V3.0【附下载地址】
  16. 互联网日报 | 1月14日 星期四 | 联想集团计划在科创板上市;荣耀官方自营商城正式上线;快手小程序平台开启公测...
  17. 一些常用的公共 DNS 服务器 IP 地址
  18. 二元logistic模型案例_基于Logistic回归的二元分类应用(含公式推导)
  19. C语言程序设计(第3版) 何钦铭 颜晖 主编
  20. KT6368A蓝牙芯片调试中遇到的常见问题,以及解决的方法

热门文章

  1. 什么是同源策略?解决跨域的三种方法?
  2. 个人云服务器系统设计,个人云服务器系统设计
  3. 服务器多开系统,服务器多开虚拟机操作系统
  4. PLSQL Developer新手使用教程(图文教程)(转载)
  5. spring的maven依赖
  6. 能被2,3,4,5,6,7,8,9...等数整除的数特征
  7. 关于杨创YC2440uboot移植
  8. 磁盘检测命令:chkdsk 修复U盘、SFC命令
  9. 怎样区分细菌性和病毒性感冒
  10. tcp ip协议 服务器和客户端区别,网络与TCP/IP协议-总结