点击上方“AI遇见机器学习”,选择“星标”公众号

重磅干货,第一时间送达

来自 | 知乎

地址 | https://zhuanlan.zhihu.com/p/145706170

作者 | 黄浴

编辑 | 机器学习算法与自然语言处理公众号

本文仅作学术分享,若侵权,请联系后台删文处理

下面分别介绍多任务学习(MTL)的三篇综述文章。

Ruder S, "An Overview of Multi-Task Learning in Deep Neural Networks", arXiv 1706.05098, June 2017

深度学习方面MTL总结:

按照隐层,MTL基本分两类:Hard sharing和Soft sharing

Hard sharing在多任务之间共享隐层,降低over fitting的风险。“The more tasks we are learning simultaneously, the more our model has to find a representation that captures all of the tasks and the less is our chance of overfitting on our original task”

Soft sharing各任务之间有自己的模型和参数,主要靠regularization鼓励任务之间的模型参数相似。

MTL的机制有几点:

  • Implicit data augmentation 数据增强

  • Attention focusing 注意

  • Eavesdropping 窃听

  • Representation bias 表示偏向

  • Regularization 正则化

非神经网络模型中的MTL,主要有两种:

  • Block-sparse regularization:enforcing sparsity across tasks through norm regularization

  • Learning task relationships:modelling the relationships between tasks

深度学习模型中的MTL:

Deep Relationship Networks

Fully-Adaptive Feature Sharing

Cross-stitch Networks

Low supervision

deep bi-directional RNNs [Søgaard and Goldberg, 2016]

A Joint Many-Task Model

Weighting losses with uncertainty

Tensor factorization for MTL (注:单任务学习STL)

[Yang and Hospedales, 2017a]

Sluice Networks

寻找辅助任务的方法:

  • Related task

  • Adversarial

  • Hints

  • Focusing attention

  • Quantization smoothing

  • Predicting inputs

  • Using the future to predict the present

  • Representation learning

Zhang Y, Yang Q, "An overview of multi-task learning", arXiv 1707.08114, July 2018

MTL方法分成几类:

  • feature learning approach 特征学习

  • low-rank approach 低秩 参数

  • task clustering approach 任务聚类 参数

  • task relation learning approach 任务关系学习 参数

  • decomposition approach 分解 参数

和其他机器学习方法结合:

  • semi-supervised learning

  • active learning

  • unsupervised learning

  • reinforcement learning

  • multi-view learning

  • graphical models

‘What to share’

  • feature:特征

  • instance:实例 (很少)

  • parameter:参数

MTL方法比较:

  • · 特征学习方法学习通用特征,转移到所有现有任务甚至新任务。当存在与其他任务无关的异常任务时,会严重影响学习的功能,并且会导致性能下降,从而导致鲁棒性不强。

  • · 通过假设参数矩阵是低秩的,低秩方法可以显式学习参数矩阵的子空间,或者通过一些凸或非凸正则化器隐式实现该子空间。这种方法功能强大,但似乎仅适用于线性模型,非线性扩展的设计不容易。

  • · 任务聚类方法根据模型参数执行聚类,并且可以识别每个包含相似的任务的类。任务聚类方法的主要局限性是,捕获同一类任务之间的正相关,而忽略不同类之间的负相关。而且,即使该类某些方法可以自动确定聚类数,但大多数方法仍需要诸如交叉验证之类的模型选择方法来确定,带来更多的计算成本。

  • · 任务关系学习方法可以同时学习模型参数和任务对的关系。所学的任务关系可以对任务的关系有深刻了解,可以提高解释性。

  • · 通过多级参数,可以将分解方法视为其他参数方法的扩展,因此分解方法可以对更复杂的任务结构(即树结构)建模。分解方法的组件数对性能很重要。

正则化方法是MTL的主要方法。正则化MTL算法分为两类:特征协方差学习和任务关系学习。特征协方差学习可以看作是特征MTL的一种典型表述,而任务关系学习则是基于参数的MTL。

MTL扩展方法:(任务聚类方法和任务关系学习方法)

  • · 将每个任务的多类别分类问题转换为二进制分类问题。

  • · 利用学习的特征。

  • · 直接学习不同任务标签的对应关系。

  • · 所有任务的模型参数构成一个张量,其中每个任务的模型参数形成一个切片,然后采用正则化或者分解方法。


Thung K, Wee C, "A Brief Review on Multi-Task Learning", Multimedia Tools and Applications, August 2018.

Rich Caruana 给出的MTL定义:“MTL is an approach to inductive transfer that improves generalization by using the domain information contained in the training signals of related tasks as an inductive bias. It does this by learning tasks in parallel while using a shared low dimensional representation; what is learned for each task can help other tasks be learned better”.

基于输入/输出,MTL 分为三种类型:

  • · multi-input single-output (MISO)

  • · single-input multioutput (SIMO)

  • · multi-input multi-output (MIMO)

按照正则化方法,MTL分类:

  • · LASSO

  • · group sparsity

  • · low rank

  • · task exclusiveness (unrelated tasks)

  • · graph Laplacian regularization

  • · decomposition

incomplete data MTL处理方法:

  • · use only samples with complete data for MTL study, with the cost of reduced statistical power of analysis due to smaller dataset;

  • · impute the missing data before performing the MTL study, where the imputation is very much prone to error for data missing in blocks

  • · design a MTL method that is applicable to incomplete data.

深度学习的MTL方法:


Vandenhende S et al., "Revisiting Multi-Task Learning in the Deep Learning Era", arXiv 2004.13379, 2020

很新的综述,刚刚看到。

深度学习的MTL主要是网络模型的设计能够从多任务监督信号中学会表征共享。MTL的优点主要是:1)由于层共享,减少了内存占用量。2)由于避免重复计算共享层特征,提高推理速度。3)如果相关任务共享补充信息或作为彼此的regularizer,则可以提高模型性能。比如计算机视觉中的检测和分类,检测和分割,分割和深度估计等等。

不过,如果任务字典里面包括不相干的任务,MTL的联合学习会带来negative transfer。为此不少方法是想寻找一个MTL的平衡点,比如Uncertainty Weighting、Gradient normalization、Dynamic Weight Averaging (DWA) 、Dynamic task prioritization、multiple gradient descent algorithm (MGDA) 和adversarial training等。另外一些最近的工作采用MTL得到一个初始预测,然后以此改进其特征得到更好的输出,比如PAD-NET、PAP-NET、JTRL和MTI-Net等。

如图是文章对深度学习MTL的分类。MTL结构上分成编码器和解码器两种,优化策略上分成任务平衡或者其他。

如图就是PAD-Net,解码器类的MTL。

还有这个PAP-NET( Pattern-Affinitive Propagation Networks)。

这是Joint Task-Recursive Learning (JTRL) 。

以及Multi-Scale Task Interaction Networks (MTI-Net) 。这些都是解码器类。

如表是任务平衡的方法比较:平衡幅度、平衡学习、梯度需要、非竞争梯度、非额外调节和动机等。

不同一般的是,该综述做了一些实验进行比较:

这三个表是编码器结构类。

这四个表是解码器结构类。

结论是解码器类的MTL方法占优。当然,编码器对表征的贡献还是不能忽略的。

这是解码器和编码器的比较。

这是三个数据集上的损失平衡法结果比较。

另外还给出了在数据集CelebA 上目前分类方法的比较,其中ResNet18加均匀权重的方法性能不错。

欢迎关注我们,看通俗干货

Multi-Task Learning的几篇综述文章相关推荐

  1. Multi task learning多任务学习背景简介

    2020-06-16 23:22:33 本篇文章将介绍在机器学习中效果比较好的一种模式,多任务学习(Multi task Learning,MTL).已经有一篇机器之心翻译的很好的博文介绍多任务学习了 ...

  2. 华南农业大学在Annual Review of Microbiology发表三篇综述文章

    华南农业大学群体微生物研究中心科研人员应国际权威微生物综述期刊Annual Review of Microbiology的邀请,分别于2019年6月21日和7月5日在线发表了三篇综述文章,分别总结了细 ...

  3. 【小样本学习】什么是小样本学习?这篇综述文章用166篇参考文献告诉你答案...

    点击上方"AI遇见机器学习",选择"星标"公众号 重磅干货,第一时间送达 来源:机器之心 再次编辑:夕小瑶的卖萌屋 什么是小样本学习?它与弱监督学习等问题有何差 ...

  4. 什么是小样本学习?这篇综述文章用166篇参考文献告诉你答案

    一只小狐狸带你解锁 炼丹术&NLP 秘籍 来源:机器之心 什么是小样本学习?它与弱监督学习等问题有何差异?其核心问题是什么?来自港科大和第四范式的这篇综述论文提供了解答. 数据是机器学习领域的 ...

  5. Fine-tune之后的NLP新范式:Prompt越来越火,CMU华人博士后出了篇综述文章

    视学算法报道 机器之心编辑部 CMU 博士后研究员刘鹏飞:近代自然语言处理技术发展的第四范式可能是预训练语言模型加持下的 Prompt Learning. 近几年,NLP 技术发展迅猛,特别是 BER ...

  6. Multi Task Learning在工业界如何更胜一筹

    摘要: 本文主要介绍多任务学习和单任务学习的对比优势以及在工业界的一些使用.如何从单任务学习转变为多任务学习?怎样使AUC和预估的准确率达到最佳?如何对实时性要求较高的在线应用更加友好?本文将以淘宝实 ...

  7. 一篇综述带你全面了解迁移学习的领域泛化(Domain Generalization)

    领域泛化 (Domain Generalization, DG) 是近几年非常热门的一个研究方向.它研究的问题是从若干个具有不同数据分布的数据集(领域)中学习一个泛化能力强的模型,以便在 未知 (Un ...

  8. 怒写400篇AI文章!这群妹子卷疯了…

    今天这篇文章不谈技术,给大家分享一些干货!首先来聊聊一个AI圈子里画风清奇的公众号 夕小瑶的卖萌屋.公号的作者中不仅妹子居多,颜值能打,而且喜欢将学术研究和大厂业务上线中的收获与读者分享. 卖萌屋的作 ...

  9. 计算机视觉哪个方向最火?来看这篇综述《中国图像工程:2020》

    文章目录 引言 相关文献分类 相关文献刊载情况 文献统计结果与讨论 小结 引言 目标识别.目标检测.目标跟踪,这些技术想必大家都很熟悉. 但是图像相关的研究方向具体有哪些类别? 哪些研究方向现在比较火 ...

最新文章

  1. 敏捷软件开发之何为敏捷开发
  2. 对docker容器的增加或减少进行报警
  3. v9更新栏目缓存提示PHP has encountered a Stack overflow解决方法
  4. Python pandas
  5. 【不断更新】2018杭州云栖大会!视频美图赏析
  6. oracle中各种函数,oracle中常用函数大全
  7. 一个帮忙画logo的网站,这个我没试过,不过我觉得淘宝更便宜一些吧
  8. 16.实现多个具有相同方法的接口和父类与实现接口有相同方法
  9. python动态绘图并保留之前绘图_[转]基于Python实现matplotlib中动态更新图片(交互式绘图)...
  10. leetcode 242. 有效的字母异位词 思考分析
  11. 3d游戏计算机硬件配置方案,做三维如何配电脑?内容创作者配置推荐
  12. 2019年中科院JCR分区表公布!附完整Excel下载地址
  13. ShaderForge - 纹理逐步消失
  14. button加下划线
  15. matlab怎么做空间计量,六步学会用MATLAB做空间计量回归详细步骤
  16. 算法的时间复杂度和空间复杂度
  17. 深度学习卷积算法指南
  18. [H265/HEVC] 波前并行处理WPP
  19. Eigrp恶意插入路由和致瘫攻击测试(一)
  20. 铸铁的弹性模量和泊松比_常用材料的弹性模量及泊松比.pdf

热门文章

  1. C语言中常用计时方法总结
  2. 为你的网站使用paypal
  3. php输出网络连接,如何打开php文件和输出内容
  4. 2021年4月28日 深圳头条后台开发实习面试(hr面)
  5. ## Spark学习之路(一)
  6. dataframe如何理解df[df[‘type‘]==‘xType‘]
  7. 一份用动画演示操作系统的各个过程的资料
  8. @Controller与@RestController区别
  9. 程序员能力矩阵 你属于哪一层?
  10. 《强化学习周刊》第4期:强化学习应用之智慧交通