参考 Multitask Learning - 云+社区 - 腾讯云

1、单任务学习VS多任务学习

  • 单任务学习:一次只学习一个任务(task),大部分的机器学习任务都属于单任务学习。
  • 多任务学习:把多个相关(related)的任务放在一起学习,同时学习多个任务。

现在大多数机器学习任务都是单任务学习。对于复杂的问题,也可以分解为简单且相互独立的子问题来单独解决,然后再合并结果,得到最初复杂问题的结果。这样做看似合理,其实是不正确的,因为现实世界中很多问题不能分解为一个一个独立的子问题,即使可以分解,各个子问题之间也是相互关联的,通过一些共享因素或共享表示(share representation)联系在一起。把现实问题当做一个个独立的单任务处理,忽略了问题之间所富含的丰富的关联信息。多任务学习就是为了解决这个问题而诞生的。把多个相关(related)的任务(task)放在一起学习。这样做真的有效吗?答案是肯定的。多个任务之间共享一些因素,它们可以在学习过程中,共享它们所学到的信息,这是单任务学习所具备的。相关联的多任务学习比单任务学习能去的更好的泛化(generalization)效果。

单任务与多任务对比如图1所示:

图1 单任务学习与多任务学习对比

从图1中可以发现,单任务学习时,各个任务之间的模型空间(Trained Model)是相互独立的(图1上)。

多任务学习时,多个任务之间的模型空间(Trained Model)是共享的(图1下)。

假设用含一个隐含层的神经网络来表示学习一个任务,单任务学习和多任务学习可以表示成如图2所示。

图2 基于单层神经网络的单任务和多任务学习对比

从图2可以发现,单任务学习时,各个task任务的学习是相互独立的,多任务学习时,多个任务之间的浅层表示共享(shared representation)。

2、多任务学习的定义

多任务学习(Multitask learning)定义:基于共享表示(shared representation),把多个相关的任务放在一起学习的一种机器学习方法。多任务学习(Multitask Learning)是一种推导迁移学习方法,主任务(main tasks)使用相关任务(related tasks)的训练信号(training signal)所拥有的领域相关信息(domain-specific information),做为一直推导偏差(inductive bias)来提升主任务(main tasks)泛化效果(generalization performance)的一种机器学习方法。

多任务学习涉及多个相关的任务同时并行学习,梯度同时反向传播,多个任务通过底层的共享表示(shared representation)来互相帮助学习,提升泛化效果。简单来说:多任务学习把多个相关的任务放在一起学习(注意,一定要是相关的任务,后面会给出相关任务(related tasks)的定义,以及他们共享了那些信息),学习过程(training)中通过一个在浅层的共享(shared representation)表示来互相分享、互相补充学习到的领域相关的信息(domain information),互相促进学习,提升泛化的效果。

共享表示shared representation:

共享表示的目的是为了提高泛化(improving generalization),图2中给出了多任务学习最简单的共享方式,多个任务在浅层共享参数。MTL中共享表示有两种方式:

(1)基于参数的共享(Parameter based):比如基于神经网络的MTL,高斯处理过程。

(2)基于约束的共享(regularization based):比如均值,联合特征(Joint feature)学习(创建一个常见的特征集合)。

3、多任务学习有效的原因

为什么把多个相关的任务放在一起学习,可以提高学习的效果?关于这个问题,有很多解释。这里列出其中一部分,以图2中由单隐含层神经网络表示的单任务和多任务学习对比为例。

(1)多人相关任务放在一起学习,有相关的部分,但也有不相关的部分。当学习一个任务(Main task)时,与该任务不相关的部分,在学习过程中相当于是噪声,因此,引入噪声可以提高学习的泛化(generalization)效果。

(2)单任务学习时,梯度的反向传播倾向于陷入局部极小值。多任务学习中不同任务的局部极小值处于不同的位置,通过相互作用,可以帮助隐含层逃离局部极小值。

(3)添加的任务可以改变权值更新的动态特性,可能使网络更适合多任务学习。比如,多任务并行学习,提升了浅层共享层(shared representation)的学习速率,可能,较大的学习速率提升了学习效果。

(4)多个任务在浅层共享表示,可能削弱了网络的能力,降低网络过拟合,提升了泛化效果。

还有很多潜在的解释,为什么多任务并行学习可以提升学习效果(performance)。多任务学习有效,是因为它是建立在多个相关的,具有共享表示(shared representation)的任务基础之上的,因此,需要定义一下,什么样的任务之间是相关的。

4、相关(relate)定义

相关(related)的具体定义很难,但我们可以知道的是,在多任务学习中,related tasks可以提升main task的学习效果,基于这点得到相关的定义:

Related(Main Task,Related tasks,LearningAlg)= 1

LearningAlg(Main Task||Related tasks)> LearningAlg(Main Task) (1)

LearningAlg表示多任务学习采用的算法,公式(1):第一个公式表示,把Related tasks与main tasks放在一起学习,效果更好;第二个公式表示,基于related tasks,采用LearningAlg算法的多任务学习Main task,要比单学习main task的条件概率概率更大。特别注意,相同的学习任务,基于不同学习算法,得到相关的结果不一样:

Related(Main Task,Related tasks,LearningAlg1)不等于 Related(Main Task,Related tasks,LearningAlg2)

5、多任务学习中的相关关系(task relationship)

多任务学习并行学习时,有5个相关因素可以帮助提升多任务学习的效果。

(1)数据放大(data amplification)。相关任务在学习过程中产生的额外有用的信息可以有效方法数据/样本(data)的大小/效果。主要有三种数据放大类型:统计数据放大(statistical data amplification)、采样数据放大(sampling data amplification),块数据放大(blocking data amplification)。

(2)Eavesdropping(窃听)。假设

(3)属性选择(attribute selection)

(4)表示偏移(representation bias)

(5)预防过拟合(overfitting prevention)

所有这些关系(relationships)都可以帮助提升学习效果(improve learning performance),关系具体定义可以参考文献[1]

6、Multitask Learning方法

浅层隐含层节点共享神经网络是最简单MTL,如图2所示。还有基于特征(feature table)共享MTL。

基于特征的共享MTL(联合特征学习,Joint feature learning),通过创建一个常见的特征集合来实现多个任务之间基于特征(features)的shared representation,其共享表示如图3所示。

图3 基于特征的共享表示示意图

基于特征共享的MTL输入输出关系如图4所示,其中采用L1正则来保证稀疏性。

图4 基于joint feature的MTL示意图

如图4,等号左边nxp的输入矩阵,乘上一个由k个任务构成的pxk的共享特征矩阵,加上一个nxk的噪声矩阵(不相关部分),就得到了左边的输出矩阵。

其他多任务学习方法还有均值约束 MTL:基于均值来约束所有的task,参数共享的高斯处理MTL,低秩约束MTL,交替结构优化MTL等等。

7、多任务学习与其他学习算法之间的关系

多任务学习(Multitask learning)是迁移学习算法的一种,迁移学习之前介绍过。定义一个一个源领域source domain和一个目标领域(target domain),在source domain学习,并把学习到的知识迁移到target domain,提升target domain的学习效果(performance)。

多标签学习(Multilabel learning)是多任务学习中的一种,建模多个label之间的相关性,同时对多个label进行建模,多个类别之间共享相同的数据/特征。

多类别学习(Multiclass learning)是多标签学习任务中的一种,对多个相互独立的类别(classes)进行建模。这几个学习之间的关系如图5所示:

图5 多任务学习与其他机器学习方法之间的关系

8、多任务学习应用概述

基于神经网络的多任务学习,尤其是基于深度神经网络的多任务学习(DL based Multitask Learning),适用于解决很多NLP领域的问题,比如把词性标注、句子句法成分划分、命名实体识别、语义角色标注等任务,都可以采用MTL任务来解决。

其他MTL的应用还有,网页图片和语音搜索[Zhou et. al. KDD’11],疾病预测[Zhang et. al. NeuroImage 12]等等

参考文献:

[1] Caruana, R. (1997). Multitask Learning. Machine Learning, 28(1), 41–75. doi: 10.1023/A:1007379606734

[2] Collobert, R., & Weston, J. (2008). A unified architecture for natural language processing: Deep neural networks with multitask learning.Presented at the Proceedings of the 25th international conference ….

[3] Lounici, K., Pontil, M., Tsybakov, A. B., & van de Geer, S. (2009, March 8). Taking Advantage of Sparsity in Multi-Task Learning. arXiv.org.

[4] Zhang, Y., & Yeung, D.-Y. (2012, March 15). A Convex Formulation for Learning Task Relationships in Multi-Task Learning. arXiv.org.

[5] Zhou, J., Chen, J., & Ye, J. (2012) Multi-Task Learning , Theory, Algorithms, and Applications, SDM

Multitask Learning相关推荐

  1. 多任务学习(Multi-Task Learning, MTL)、其他分类形式、与迁移学习的关系

    多任务学习(Multi-Task Learning, MTL).其他分类形式.与迁移学习的关系 目录 多任务学习(Multi-Task Learning, MTL).其他分类形式.与迁移学习的关系

  2. 人群密度估计--CNN-based Cascaded Multi-task Learning of High-level Prior and Density Estimation for Crowd

    CNN-based Cascaded Multi-task Learning of High-level Prior and Density Estimation for Crowd Counting ...

  3. Multi-Task Learning的几篇综述文章

    点击上方"AI遇见机器学习",选择"星标"公众号 重磅干货,第一时间送达 来自 | 知乎 地址 | https://zhuanlan.zhihu.com/p/1 ...

  4. Multi-task Learning(Review)多任务学习概述

    https://www.toutiao.com/a6707402838705701383/ 背景:只专注于单个模型可能会忽略一些相关任务中可能提升目标任务的潜在信息,通过进行一定程度的共享不同任务之间 ...

  5. [译]深度神经网络的多任务学习概览(An Overview of Multi-task Learning in Deep Neural Networks)...

    译自:http://sebastianruder.com/multi-task/ 1. 前言 在机器学习中,我们通常关心优化某一特定指标,不管这个指标是一个标准值,还是企业KPI.为了达到这个目标,我 ...

  6. 深度学习核心技术精讲100篇(八)-keras 实战系列之深度学习中的多任务学习(Multi-task learning)

    多任务学习(Multi-task learning)简介 多任务学习(Multi-task learning)是迁移学习(Transfer Learning)的一种,而迁移学习指的是将从源领域的知识( ...

  7. 文献记录(part41)--Residual multi-task learning for facial landmark localization and expression ...

    学习笔记,仅供参考,有错必纠 关键词:面部地标定位:面部表情识别:深层神经网络:多任务学习 随便看看- 文章目录 Residual multi-task learning for facial lan ...

  8. 人脸关键点:TCDCN-Facial Landmark Detection by Deep Multi-task Learning

    <Facial Landmark Detection by Deep Multi-task Learning>发表于ECCV-2014,作者来自香港中文大学汤晓鸥团队的Zhanpeng Z ...

  9. 密集预测任务的多任务学习(Multi-Task Learning)研究综述 - 网络结构篇(上)

    [ TPAMI 2021 ] Multi-Task Learning for Dense Prediction Tasks: A Survey [ The authors ] • Simon Vand ...

  10. 经验 | 训练多任务学习(Multi-task Learning)方法总结

    点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 转载于:知乎Anticoder https://zhuanlan. ...

最新文章

  1. Hadoop 学习笔记 (十一) MapReduce 求平均成绩
  2. ASP.NET中生成缩略图的代码
  3. 元神一直显示连接服务器失败,原神连接服务器失败是什么情况-提示连接服务器失败处理办法-去秀手游网...
  4. 【HDU - 5890】Eighty seven(bitset优化背包)
  5. observable java_java源码阅读Observable(观察者模式)
  6. junit mockito_Mockito存根异常– JUnit,TestNG
  7. 主函数中冒泡法 VS 自定义函数选择法
  8. visreg:带你玩遍模型可视化
  9. vmlinux_32.lds.S
  10. java成员变量注释规范_java编程规范之java注释规范
  11. 编码规约学习——《阿里巴巴 Java 开发手册》
  12. unity3d 取锚点位置_如何不靠看格子,确定一个字的首笔和后面每一笔画的位置?...
  13. SQL --用户数据维护
  14. MPLS流量工程(TE)
  15. 123.R简介和统计绘图
  16. 柯尼卡美能达C364e安装步骤(全)-柯美复印机如何装机-柯美C364e驱动安装-柯美复印机安装扫描
  17. React-moveable的使用
  18. Window提高效率的软件
  19. 如何分析个股基本面_如何从分析股票的基本面
  20. python编程 | pdf转excel的python方法

热门文章

  1. 借助WinPE进行Windows系统安装
  2. 联想笔记本腾讯会议摄像头灰屏或黑屏问题解决
  3. 谷歌搜索语句实例(持续更新)
  4. conime.exe
  5. mysql下载安装驱动包 PowerDesigner连接
  6. 斐讯K1路由器刷入openwrt及通过netkeeper连接校园网
  7. 猿创征文|计算机专业硕博研究生提高效率的10款科研工具
  8. 目标检测-爬虫-利用百度识图的方法来批量的爬取图片生产数据集
  9. Installing VMware Tools, please wait解决办法
  10. 将图片或其他文档转化成PDF的软件