一、概要
  该文章发于ACL 2017,针对于已有的大多数神经网络多任务学习模型进行文本分类,存在的共享特征(shared features)可能再次包含特定任务特征(task-specific features)或者含有来自其他任务带来的噪声问题,作者提出了一个对抗多任务学习模型,缓解了共享特征空间和特定任务特征空间相互干扰的问题,作者在16个任务上进行实验证明其模型的有效性,并且实验结果表明模型的共享特征学习到的知识可以很好地用在新任务上。

二、模型方法
2.1 Adversarial Shared-Private Model


  如概要所述,针对于已有的神经网络多任务学习的方法可能存在共享和私有特征相互包含的问题,作者提出了对抗多任务学习模型。如上图所示,(b)表示本文方法,存在两个任务,其中蓝色的正方形和三角形表示特定任务的私有特征领域,用来捕捉特定任务的特征,重叠的红色圆圈表示共享的特征领域,其用来捕获不同任务间存在的共同特征。
  本文通过使用对抗训练来保证共享空间仅包含多任务的共享信息,以及使用正交约束来消除共享空间和私有空间之间的冗余信息。

2.2 Recurrent Models for Text Classification
  本文使用Long Short-term Memory(LSTM)模型进行文本分类,关于LSTM模型可见【Deep Learning】LSTM(Long Short-Term Memory)及变体。对于一个给定的句子x = { x1,x2,···,xT x_{1},x_{2},··· ,x_{T}},首先通过lookup层获取到每个词的向量表示,然后通过LSTM,使用最后一个时间步的输出 hT h_{T}作用整个句子的表示,最后通过一个softmax层进行分类,得到相应类别的概率。

y′=softmax(WhT+b) y^{'}= softmax(Wh_{T} + b)
L(y′,y)=−∑Ni=1∑Cj=1yjIlog(y′ji) L(y^{'},y) = −\sum^{N}_{i=1}\sum^{C}_{j=1}y^{j}_{I}log(y^{'j}_{i})
  其中 y′ y^{'}表示通过softmax层输出的分类概率, yji y^{j}_{i}表示真实的类别标签,C为类别数。

2.3 Multi-task Learning for Text Classification
  多任务学习的目标是通过多个任务并行学习到它们的相关性来提高分类的准确性;假设第k个任务中存在 Nk N_{k}个样本,那么将 Dk D_{k}定义为:

Dk D_{k}= { (xki,yki) (x^{k}_{i}, y^{k}_{i})} Nki=1 ^{N_{k}}_{i=1}
  其中 xki x^{k}_{i}表示为该任务中第i个句子, yki y^{k}_{i}表示对应的标签。
  如上图所示,多任务学习有两种结构,分别为Fully-Shared Model (FS-MTL)和Shared-Private Model (SP-MTL),假设存在两个任务m和n,那么:
  ①FS-MTL仅使用单LSTM对所有的任务进行特征提取,然后将提取到的特征分别传入对应任务的sorfmax层进行分类;
  SP-MTL使用了两种特征学习方法,一种是所有任务共享的特征,一种是特定任务独立的特征,均使用LSTM进行特征提取,对应任务k,共享特征与私有特征可以表示为:
skt=LSTM(xt,skt−1,θs) s^{k}_{t} =LSTM(x_{t},s^{k}_{t−1},θ_{s})
hkt=LSTM(xt,hmt−1,θk) h^{k}_{t} = LSTM(x_{t},h^{m}_{t−1},θ_{k})
  最后的特征是将共享特征与私有特征组合,对于任务k,将最终特征 h(k) h^{(k)}传入对应任务的sorfmax层进行分类,损失函数 Ltask L_{task}计算方法为:
Ltask=∑Kk=1αkL(y′(k),y(k)) L_{task}=\sum^{K}_{k=1}\alpha _{k}L(y^{'(k)},y^{(k)})
2.4 Incorporating Adversarial Training
  这里使用到了GAN的思想,关于GAN可以查看网上的一些资料,比如机器之心的 GAN完整理论推导与实现,这里主要是使用一个sorfmax层作为判别器(Discriminator),共享特征提取的LSTM作为生成器(Generator),判别器是判断提取到的特征来自于哪个任务,即:
D(skT,θD)=softmax(b+UskT) D(s^{k}_{T} , θ_{D }) = softmax(b + Us^{k}_{T} )
  那么Adversarial Loss LAdv L_{Adv}为:
LAdv=minθs(λmaxθD(∑Kk=1∑Nki=1dKIlog[D(E(Xk))])) L_{Adv}=min_{θ_{s}}(\lambda max_{θ_{D}}(\sum^{K}_{k=1}\sum^{N_{k}}_{i=1}d^{K}_{I}log[D(E(X^{k}))]))
  其中 dki d^{k}_{i}表示任务类别的标签,这是一个min-max优化问题,对于一个给定的句子,共享LSTM试图不断地误导判别器,而sorfmax层的判别器不断地努力辨别句子来自哪个任务,在不断地训练后,达到一个平衡。同时这里不需要任务中文本分类的label,而是需要句子来自哪个任务作为标签,所以这可以看做一个半监督的多任务学习,可以充分利用一些没有标签(unlabeled)的数据集进行训练。
   Orthogonality Constraints,为了消除共享空间与各任务私有空间的干扰,保持其独立性,因而对共享特征和私有特征进行正交约束,即:
Ldiff=∑Kk=1||SkTHk||2F L_{diff}=\sum^{K}_{k=1}||S^{kT}H^{k}||^{2}_{F}
  所以最终的损失函数为:
L=LTask+λLAdv+λLDiff L=L_{Task}+λL_{Adv}+\lambda L_{Diff}
  其中λ和 λ \lambda分别是超参数,文中取值分别为0.01和0.05。

三、实验结果
3.1 实验数据集

3.2 Competitor Methods for Multi-task Learning

  其中MT-CNN模型是由Colbert和Weston(2008)提出使用卷积神经网络的模型,只有lookup层共享,其他层则是特定任务私有。MT-DNN:该模型由Liu等人提出(2015),其中包含词袋输入和多层感知器,隐藏层是共享的。

3.3 Shared Knowledge Transfer

  其中存在两种知识迁移的方法,如下图,黄色方框表示来自其他15个任务训练得到的共享特征提取器。

3.4 Visualization


四、结论与思考
  本文提出了一个对抗多任务学习模型,缓解了共享特征空间和特定任务特征空间相互干扰的问题,并在16个任务上进行实验证明其模型的有效性,以及通过进行广泛的定性分析,间接证明了模型有效性的提升。

五、个人思考
  ①首先是最近GAN及强化学习真是被大家玩得火热,通过寻求合适应用场景下使用深度强化学习,本文正是基于此提出了一个较为新颖的模型,并证明其方法的有效性。
  ②本文的模型在特征提取模块仅使用了LSTM进行特征提取,所以可以进一步加强模型的复杂度,多任务学习与模型融合在一定程度上是不是相似的呢?是否具有普适性?尽管多任务学习最近也非常火热。

参考文献
①Pengfei Liu,Xipeng Qiu,Xuanjing Huang.Adversarial Multi-task Learning for Text Classification
②代码链接:http://pfliu.com/#Publications
③数据集:http://nlp.fudan.edu.cn/data/

【论文笔记】Adversarial Multi-task Learning for Text Classification相关推荐

  1. SSL论文笔记:Billion-scale semi-supervised learning for image classification

    文章目录 Abstract Introduction Methods Experiments Setup 对不同步骤的分析 Parameter study 关于pre-training和self-tr ...

  2. 论文笔记 | 谷歌 Soft Prompt Learning ,Prefix-Tuning的 -> soft promt -> p tuning v2

    论文笔记 | 谷歌 Soft Prompt Learning ptuning -> Prefix-Tuning -> soft promt -> p tuning v2 " ...

  3. Multi task learning多任务学习背景简介

    2020-06-16 23:22:33 本篇文章将介绍在机器学习中效果比较好的一种模式,多任务学习(Multi task Learning,MTL).已经有一篇机器之心翻译的很好的博文介绍多任务学习了 ...

  4. 论文笔记-LSHTC: A Benchmark for Large-Scale Text Classification-2015

    关于LSHTC更多介绍见官网 文章目录 title abstract dataset LSHTC数据集介绍 LSHTC1 LSHTC2 LSHTC3 & LSHTC4 评估方法 Referen ...

  5. 论文阅读笔记:Graph Convolutional Networks for Text Classification

    Abstract 文本分类作为一个经典的自然语言处理任务,已经有很多利用卷积神经网络进行文本分类的研究,但是利用图卷积神经网络进行研究的仍然较少. 本文基于单词共现和文档单词间的关系构建一个text ...

  6. 综述:基于深度学习的文本分类 --《Deep Learning Based Text Classification: A Comprehensive Review》总结(一)

    文章目录 综述:基于深度学习的文本分类 <Deep Learning Based Text Classification: A Comprehensive Review>论文总结(一) 总 ...

  7. 【论文笔记】 LSTM-BASED DEEP LEARNING MODELS FOR NONFACTOID ANSWER SELECTION

    一.简介 这篇论文由IBM Watson发表在2016 ICLR,目前引用量92.这篇论文的研究主题是answer selection,作者在这篇论文基础上[Applying Deep Learnin ...

  8. 论文笔记:CLIP:Learning Transferable Visual Models From Natural Language Supervision详解

    paper:https://arxiv.org/abs/2103.00020 代码:GitHub - openai/CLIP: Contrastive Language-Image Pretraini ...

  9. 2021-06-03 【论文笔记】Cross-domain Correspondence Learning for Exemplar-based Image Translation

    论文题目:Cross-domain Correspondence Learning for Exemplar-based Image Translation 论文主页:https://panzhang ...

最新文章

  1. 浏览器解析jsx_React——JSX语法
  2. 若依(基于SpringBoot的权限管理系统)的快速搭建
  3. C# 语法练习(4): 类型转换
  4. Android事件总线
  5. ASP非模板生成静态页
  6. 上传声音 微信小程序_SpringBoot开发案例之微信小程序录音上传
  7. python返回值函数_Python函数的返回值(一)
  8. 【回归预测】基于matlab鲸鱼算法WOA优化混合核极限学习机KELM回归预测【含Matlab源码 JQ004期】
  9. 安川服务器显示fn001,安川伺服驱动器功能参数设置
  10. ofd阅读器qt_OFD编辑器实例
  11. 永磁同步电机的矢量控制策略(十二)一一一MTPA最大转矩电流比控制
  12. 女子眉纤,额下现一弯新月;男儿气壮,胸中吐万丈长虹
  13. 自制操作系统 1 准备工作
  14. Solr DIH使用说明
  15. 深度理解RNN的梯度消失和LSTM为什么能解决梯度消失
  16. 计算机网络—网关介绍
  17. arduino入门套件学习过程-安装配置
  18. css表格单元格大小,CSS怎样控制表格单元格的宽高?
  19. 基于MATLAB/SIMULINK的双馈风力发电机(DFIG)并网模型
  20. spark之kryo 序列化

热门文章

  1. 计算机网络ip地址在哪,w7的ip地址在哪?小编教你怎么查看
  2. 太阳的后裔--OST.3 This love这份爱
  3. 学籍管理系统:详细设计说明书- -
  4. python怎么搜索文献_python论文参考文献有哪些
  5. c 语言提取左右声道数据
  6. 写一个PE的壳_Part 3:Section里实现PE装载器
  7. 长城皮卡品牌CEO张昊保:皮卡是一个独特的品类,想玩门槛很高
  8. 【组合数学】组合恒等式 ( 组合恒等式 积之和 1 | 积之和 1 证明 | 组合恒等式 积之和 2 | 积之和 2 证明 )
  9. 如何在ios手机端的Safari浏览器 中“查看网页源代码”
  10. 导出excel.支持在线打开保存