Reasoning with Sarcasm by Reading In-between

click here:文章下载

方法综述:

本文提出了新的模型SIARN(Singal-dimensional Intra-Attention Recurrent Networks)和MIARN(Multi-dimensional Intra-Attention Recurrent Networks)。

先给出一个定义,关系得分si,js_{i,j}si,j​表示单词wiw_iwi​、wjw_jwj​间的信息关联程度。二者的区别仅在于,SIARN中只考虑单词对间的一种内在关系,si,js_{i,j}si,j​是个标量;而MIARN考虑单词对间的多种(k种)内在关系,si,js_{i,j}si,j​是个k维向量,再将其融合为一个标量。

模型中包含三个子模型:Singal/Multi-dimensional Intra-AttentionLSTMPrediction Layer
Singal/Multi-dimensional Intra-Attention:通过单词对间的信息,得到句子的Intra-Attentive Representation
LSTM:通过句子的序列信息,得到句子的Compositional Representation
Prediction Layer: 融合两种信息表示,进行二分类预测

各模型算法:

Singal/Multi-dimensional Intra-Attention

Sigal-dimensional:

si,j=Wa([wi;wj])+ba⟹si,j∈Rs_{i,j}=W_a([w_i;w_j])+b_a \implies s_{i,j} \in Rsi,j​=Wa​([wi​;wj​])+ba​⟹si,j​∈R 标量

Wa∈R2n×1,ba∈R;W_a \in R^{2n \times 1},b_a \in R;Wa​∈R2n×1,ba​∈R;

Multi-dimensional:

si,j^=Wq([wi;wj])+bq⟹si,j^∈Rk\hat{s_{i,j}}=W_q([w_i;w_j])+b_q \implies \hat{s_{i,j}} \in R^ksi,j​^​=Wq​([wi​;wj​])+bq​⟹si,j​^​∈Rk k维向量
Wq∈R2n×k,bq∈Rk;W_q \in R^{2n \times k},b_q \in R^k;Wq​∈R2n×k,bq​∈Rk;

si,j=Wp(ReLU(si,j^))+bps_{i,j}=W_p(ReLU(\hat{s_{i,j}}))+b_psi,j​=Wp​(ReLU(si,j​^​))+bp​
Wp∈Rk×1,bp∈R;W_p \in R^{k \times 1},b_p \in R;Wp​∈Rk×1,bp​∈R;

⇓⇓⇓⇓⇓⇓⇓⇓⇓⇓\Downarrow \Downarrow \Downarrow \Downarrow \Downarrow \Downarrow \Downarrow \Downarrow \Downarrow \Downarrow⇓⇓⇓⇓⇓⇓⇓⇓⇓⇓

si,j=Wp(ReLU(Wq([wi;wj])))+bps_{i,j}=W_p(ReLU(W_q([w_i;w_j])))+b_psi,j​=Wp​(ReLU(Wq​([wi​;wj​])))+bp​
Wq∈R2n×k,bq∈Rk,Wp∈Rk×1,bp∈R;W_q \in R^{2n \times k},b_q \in R^k,W_p \in R^{k \times 1},b_p \in R;Wq​∈R2n×k,bq​∈Rk,Wp​∈Rk×1,bp​∈R;

从而,对于长度为lll的句子,可以得到对称矩阵s∈Rl×ls \in R^{l \times l}s∈Rl×l。
对矩阵s进行row-wise max-pooling,即按行取最大值,得到attention vector:a∈Rla \in R^la∈Rl

有了权重向量a,便可以对句子单词进行加权求和,得到Intra-Attentive Representation:va∈Rnv_a \in R^nva​∈Rn:

LSTM

LSTM的每个时间步输出hi∈Rdh_i \in R^dhi​∈Rd,可以表示为:

hi=LSTM(w,i),∀i∈[1,...,l]h_i=LSTM(w,i),\forall i \in [1,...,l]hi​=LSTM(w,i),∀i∈[1,...,l]

本文使用LSTM的最后时间步输出,作为Compositional Representation:vc∈Rdv_c \in R^dvc​∈Rd

vc=hlv_c=h_lvc​=hl​

ddd是LSTM隐藏层单元数,lll是句子的最大长度。

Prediction Layer

融合上述得到的Intra-Attentive Representation va∈Rnv_a \in R^nva​∈Rn、Compositional Representation vc∈Rdv_c \in R^dvc​∈Rd,得到融合表示向量 v∈Rdv \in R^dv∈Rd,再进行二分类输出y^∈R2\hat{y} \in R^2y^​∈R2:

v=ReLU(Wz([va;vc])+bz)v=ReLU(W_z([v_a;v_c]) + b_z)v=ReLU(Wz​([va​;vc​])+bz​)
y^=Softmax(Wfv+bf)\hat{y}=Softmax(W_fv+b_f)y^​=Softmax(Wf​v+bf​)

其中,Wz∈R(d+n)×d,bz∈Rd,Wf∈Rd×2,Wf∈Rd×2,bf∈R2W_z \in R^{(d+n) \times d},b_z \in R^d,W_f \in R^{d \times 2},W_f \in R^{d \times 2}, b_f \in R^2Wz​∈R(d+n)×d,bz​∈Rd,Wf​∈Rd×2,Wf​∈Rd×2,bf​∈R2

训练目标:



待学习参数:θ={Wp,bp,Wq,bq,Wz,bz,Wf,bf}\theta = \{W_p,b_p,W_q,b_q,W_z,b_z,W_f,b_f\}θ={Wp​,bp​,Wq​,bq​,Wz​,bz​,Wf​,bf​}
超参数:k,n,d,λk, n, d, \lambdak,n,d,λ

Reasoning with Sarcasm by Reading In-between相关推荐

  1. Reasoning with Sarcasm by Reading In-between(MIARN 2018)论文笔记

    本文主要是提出了一种新的模型:MIARN(Multi-dimensional Intra- Attention Recurrent Networks),Intra-attention其实可以看做是se ...

  2. Reasoning with Sarcasm by Reading In-between读书笔记

    发表于ACL2018 讽刺检测对于情感分析等任务非常重要,因为对于讽刺的句子往往会得出相反的情感结论.以往方法依赖LSTM等compositional模型,不利于句内词语关系的发现.本文认为讽刺的出现 ...

  3. ACL 2018 ACCEPTED PAPER

    ACL 2018接受了258篇长论文和126篇短论文,总体接受率为24.9%. 论文官方地址:https://acl2018.org/programme/papers/ 详细如下: Long Pape ...

  4. ACL2020-最新录用论文列表分享

    ACL会议(Annual Meeting of the Association for Computational Linguistics)是自然语言处理与计算语言学领域最高级别的学术会议,由计算语言 ...

  5. Stanford University courses of computer science department(斯坦福计算机系课程设置)

    斯坦福学科目前分为7个department:Business, Earth, Education, Engineering, Humanities & Sciences, Law, Medic ...

  6. 南加大计算机专业本科sat要求,南加州大学SAT成绩要求

    下面是南加州大学University of Southern California 的SAT成绩要求.南加州大学一直都是老牌的顶级名校,对考生有很强的吸引力.下面我们一起来看看想要进入南加州大学所需要 ...

  7. 200+篇Graph4NLP文献集:图深度学习在NLP任务的应用

    大家好,我是kaiyuan 刷gayhub发现的好东西,当然第一时间分享给朋友们啦!一份图深度学习自然语言处理文献集,详细梳理了NLP十二项任务中,图神经网络的具体应用. 来看看具体的内容吧!记得收藏 ...

  8. 机器阅读理解MRC论文整理

    机器阅读理解MRC论文整理 最近发现一篇机器阅读理解整理的博客机器阅读理解整理整理于2020年 论文代码查找网站: https://dblp.uni-trier.de/db/conf/acl/acl2 ...

  9. 2020年NLP所有领域最新、经典、顶会、必读论文

    本资源整理了近几年,自然语言处理领域各大AI相关的顶会中,一些经典.最新.必读的论文,涉及NLP领域相关的,Bert模型.Transformer模型.迁移学习.文本摘要.情感分析.问答.机器翻译.文本 ...

最新文章

  1. 记一次Python与C#的AES加密对接
  2. leetcode算法题--“气球” 的最大数量
  3. docker 安装mysql 实战文档_在docker上安装运行mysql实例
  4. 李宏毅线性代数笔记1:系统
  5. linux to extract contents between patterns
  6. HDFS数据定时采集demo 简单
  7. ubuntu创建文件夹和删除文件
  8. Mybatis传入参数map,读取map原创
  9. JS中的加号+运算符详解
  10. windows 下win+r无效
  11. c/c++ 阻塞和非阻塞,fcntl应用
  12. s4800扫描电镜的CSS3_日立S4800扫描电镜中文使用手册
  13. Nginx (LNMP+https)
  14. mysql 读取文件_关于mysql:逐行读取文件而不将整个文件加载到内存中
  15. win7修复计算机消失,详细教您win7 aero效果消失了怎么恢复
  16. CentOS7下宽带连接
  17. android html footer 固定,footer保持在页面底部的两种方法
  18. java 回归分析_机器学习的回归是什么
  19. 电脑突然连不上WIFI和以太网
  20. 黑苹果 MAC Monterey 在睡眠后 bluetoothd 占用很高的cpu解决方案

热门文章

  1. [USACO Mar08] 游荡的奶牛
  2. ipmitool sdr type Temperature sdr 从传感器获取某一类数据
  3. 视频教程的录制与制作的流程,方法,经验
  4. net has only one pin的解决方法
  5. [自考总结]考的全没背,背的全没考是一种什么体验
  6. maple 解代数方程组得多项式_Maple笔记2--常微分方程求解
  7. 微软Win10这些黑科技小功能你都用过吗
  8. Groovy快速入门指南
  9. hdu 1983 Kaitou Kid - The Phantom Thief (2)【Bfs+暴力枚举】
  10. CCF201803-4-棋局评估