©PaperWeekly 原创 · 作者 | 张一帆

学校 | 中科院自动化所博士生

研究方向 | 计算机视觉

Domain Adaptation 即在源域上进行训练,在目标域上进行测试。

本文总结了近两年 ICML/NeurIPS 的几篇文章,分别覆盖了几种 DA 的新 setting 以及新的理论/方法。

CIDA

论文标题:

Continuously Indexed Domain Adaptation

收录会议:

ICML 2020 Oral

论文链接:

https://arxiv.org/abs/2007.01807

代码链接:

https://github.com/hehaodele/CIDA

目前已有的 domain 划分都是按类别的,即每个 domain 有一个固定的域标签。但是在日常生活中,domain 并不只是一个常数能够代表的,比如 RGB 图像和深度图像。

很多实际问题包含了连续变化的 domain,在医药领域,domain 可以是用户的年龄,这是一个连续的值,在自动驾驶领域场景的变化从白天到黑夜,是一个连续的过程。

先来看一个文中给出的简单样例,以二分类为例(红色和蓝色),给定六个 source domain 和其他域的无标签数据,想要去尽可能的提升在其他目标域的表现。

我们先来看一些传统算法的表现,对于简单的 adversarial learning,他想要学得一个 invariant representation 是的域分类器无法判别样本的来源,他学到的分类面如下所示,泛化性能并不是很好。

作者表达了传统方法在这种 setting 上不 work 的原因是不能有效地利用大量,连续变化的标签。本文的 intuition 是,对于上例,其实每个 domain 对应了一个旋转角度,本文给出的模型实际上也很简单,如下所示,就是将 label 也作为 encoder 的输入,在此基础上执行 adversarial training。

但是此时作者还观察到一个现象,如果我们将前三个 domain 拿出来单独分析,会发现这三个domain拿来预测标签得到的分布不尽相同,他们可能只是均值相同,并不是很好的对齐了特征的预测分布。

本文给出了改进方案,即我们直接对其输出分布的数字特征:均值与方差,改进后的网络结构与损失如下所示。

本文的理论贡献主要有三点:

1. 证明了 CIDA 方案收敛,当且仅当 对于任何 是相同的;

2. 证明了 PCIDA 方案收敛,当且仅当均值和方差对于任何 是相同的;

3. 证明了 的 two-player 博弈和 的 three-player 博弈全局最优点一致。

展示一下 CIDA 在 Sine 数据集上得到的分类面,可以看到比起 baseline,文中所提到的算法在 continuous index 的情况下取得了更平滑,效果更好的分类面。

DSAN

论文标题:

Domain Adaptation with Invariant Representation Learning: What Transformations to Learn?

收录会议:

NeurIPS 2021

论文链接:

https://openreview.net/pdf?id=zdmF437BCB

代码链接:

https://github.com/DMIRLAB-Group/DSAN

本文的 intuition 在于,以往的大多数方法使用同一个 encoder 处理不同域的数据,这样的做法在一些情况下不能学到一个对边缘分布具有不变性的特征。也有一些工作选择对源域和目标域使用不同的 encoder,但是这种方法目前仍存在一定的问题,比如(1)使用两个 encoder 的动机尚不清楚;(2)目前 UDA 还没有一个方法可以保证不变性特征 具有足够的语义信息。

本文的符号和假设如下, 分别是图像和标签, 是隐变量, 是一个 nuisance,即 domain 间的风格差异等。

本文首先给出了两个特例,即下图,左侧源域是正态分布,目标域是均匀分布而且二者有 overlap。然而在 overlap 的地方,两个分布的密度并不相同。文章说明了如果源域和目标域有重叠而且在重叠区域密度不同,那么使用单一的一个 encoder 不足以学到 invariant representation 。

本文给出了他们的解决方案,与传统工作的不同点在于:

1. 将 建模为 domain index 的函数,因此 encoder 的输入其实有两个,其为 ;

2. 为了最小化 带来的影响,文中额外添加了一个 decoder 来约束,如下图所示,就是会将 tgt/src domain 的 都给到 source domain 的隐变量,然后两个重构要让我们的分类器无法辨别来源于哪个 domain;

3. 不同的 domain 对应不同的 encoder。

展示一部分实验结果:

IDOL

论文标题:

Gradual Domain Adaptation without Indexed Intermediate Domains

收录会议:

NeurIPS 2021

论文链接:

https://papers.nips.cc/paper/2021/file/45017f6511f91be700fda3d118034994-Paper.pdf

代码链接:

https://github.com/hongyouc/IDOL

当目标域和源域的差异很大的时候,UDA 算法的性能往往会很差,Gradual domain adaption(GDA)是一个解决方案,它可以利用每个 domain 渐进的偏移来提升 DA 的性能,但是往往需要额外域的标签,比如人的年龄信息,本文提出了一个更加 challenging 的 setting:如果没有额外域的标签,我们如何使用 GDA 的算法。

那么公式化本文其实是要解决这样一个问题,即我们在源域的模型 ,然后提出的 IDOL 模型将无标签的一大堆数据分成中间域 ,模型渐进的在每个中间域 self-training,目标是最终在目标域取得不错的性能。

要直接完成这个任务是非常困难的,因为评估预测的多个域标签需要将整个流程跑一遍。因此本文提出了一个渐进式的解决方案:

1. 首先给每个 sample 一个分数 ,这个分数大概确定了 在 src 到 tgt 的位置。有了这个分数其实我们都可以将他们按序排列然后分到 个 chunk 里即可;

2. 为了提升这个分配方式,进一步考虑分组到同一领域的数据如何能够集体地保存来自前一个领域的 discriminative knowledge。这里可能有点难以理解,下文介绍方法就明白了。

第一步的做法很简单,self-training 以及 OOD 样本检测都有如下的普遍现象:模型置信度越低,说明样本越有可能是 OOD 的,即 ,取类中置信度最高的。这种方法的一个缺点是会大概率选中那些易于区分的样本。本文也尝试了其他方法,比如这里也会训练一个 source 和 target 的域分类器,来对之间的域进行打分,

第二步稍微有些复杂,为了维持在上一个 domain 学到的分类信息,作者定义了 cycle-consistency 的损失函数。这个过程的 intuition 是这样的,我们从如果我们在 domain 0 上有一个 train 好的模型,他在距离较近的 domain 1 上表现应该也不错,那么我们渐进的在 domain 1 上完成了 self-training,那他也应该在 domain 0 上表现不错,这就是所谓的 cycle-consistency。

Implicit Semantic Response Alignment

论文标题:

Implicit Semantic Response Alignment for Partial Domain Adaptation

收录会议:

NeurIPS 2021

论文链接:

https://papers.nips.cc/paper/2021/file/731b03008e834f92a03085ef47061c4a-Paper.pdf

代码链接:

https://github.com/implicit-seman-align/implicit-semantic-response-alignment

Partial Domain Adaptation(PDA)即目标域的标签是源域标签的一部分,目前的大多数工作旨在对源域进行加权以减小标签的不一致,本文相信来自这些额外类别的样本仍然包含有价值的信息,可以促进 PDA。例如,猫和狗有明显的区分等级的特征;然而,它们也有许多共同的语义信息,包括皮毛、四条腿等等。因此,本文期望通过隐式语义来探讨不同类别之间的关系,并实现语义层次的对齐。

本文的结构如下:

主要分为如下几步:

1. implicit semantic discovery:将图像通过一个 class2vec 模块转化为一系列的语义信息(直观来看就是一组 embedding,每一个 embedding 对应一种语义信息),这里通过一个 auto-encoder 的重构方式来训练 class2vec 模块;

2. Topic attention reception:为了得到我们 backbone 特征和这些语义信息的关系,这里使用一个 attention 模块将计算每个特征对每个语义信息的相应(一个权重),因此我们就可以得到每一个特征对语义信息们的权重向量(mask);

3. Semantic topic alignment:使同一语义对应的 src mask 和 tgt mask 向量尽可能相似,这使我们的模型能够从特定语义上具有相似度的额外类中迁移样本所包含的相关语义信息。

看一部分实验效果:

BPDA

论文标题:

The balancing principle for parameter choice in distance-regularized domain adaptation

收录会议:

NeurIPS 2021

论文链接:

https://proceedings.neurips.cc/paper/2021/file/ae0909a324fb2530e205e52d40266418-Paper.pdf

代码链接:

https://github.com/Xpitfire/bpda

传统 UDA 算法通常由一个分类损失和一个正则化损失组成,但是如何选择二者的 tradeoff parameter 是一个仍未解决的问题,因为我们并没有 tgt domain 的 label,因此无法对每个参数带来的性能进行验证,在实验中现有工作往往将其作为一个超参数。本文从理论出发,找到了一个设置最优 tradeoff parameter 的方法。

其实算法很简单就是通过 DA bound 的那一套理论推出了如下的方法,给一组 和相应的模型 ,根据算法中的条件进行选择。

特别鸣谢

感谢 TCCI 天桥脑科学研究院对于 PaperWeekly 的支持。TCCI 关注大脑探知、大脑功能和大脑健康。

更多阅读

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

从近年顶会论文看领域自适应(Domain Adaptation)最新研究进展相关推荐

  1. 论文浅尝 | 5 篇顶会论文带你了解知识图谱最新研究进展

    本文转载自公众号:PaperWeekly. 精选 5 篇来自 ICLR 2019.WSDM 2019.EMNLP 2018.CIKM 2018和IJCAI 2018 的知识图谱相关工作,带你快速了解知 ...

  2. 图网络究竟在研究什么?从15篇研究综述看图神经网络GNN的最新研究进展

    近年来,由于图结构的强大表现力,用机器学习方法分析图的研究越来越受到重视.图神经网络(GNN)是一类基于深度学习的处理图域信息的方法. 到目前,相关研究的已经非常多了,不过我们回过头来看思考和回顾一下 ...

  3. 论文模型构建的步骤_7篇ICLR论文,遍览联邦学习最新研究进展

    机器之心分析师网络 作者:仵冀颖 编辑:H4O 本篇提前看重点关注 ICLR 2020 中关于联邦学习(Federated Learning)的最新研究进展. 2020 年的 ICLR 会议原计划于4 ...

  4. 顶会论文看图对比学习 (GNN+CL) 研究趋势

    作者 | 侯宇蓬 单位 | 中国人民大学 来源 | RUC AI Box 随着对比学习(Contrastive Learning)在 CV.NLP 等领域大放异彩,其研究热度近年来也逐步走高.在图学习 ...

  5. 从200多篇顶会论文看推荐系统前沿方向与最新进展

    作者|牟善磊 学校|中国人民大学硕士生 研究方向 | 推荐系统 来源 | RUC AI Box 推荐系统作为深度学习御三家(CV, NLP, RS)之一,一直都是学术界和工业界的热门研究 topic. ...

  6. 多篇顶会论文看DRO (Distributionally Robust Optimization) 最新进展

    ©PaperWeekly 原创 · 作者 | 张一帆 学校 | 中科院自动化所博士生 研究方向 | 计算机视觉 常见的算法使用经验风险最小化(ERM)的范式,有一个模型参数为 ,一个损失函数 和数据分 ...

  7. 继续!从顶会论文看对比学习的应用!

    公众号作者@上杉翔二 悠闲会 · 信息检索 整理 | NewBeeNLP 上周,我们分享了对比学习的一些应用,从顶会论文看对比学习的应用! 本篇博文将继续整理一些对比学习的应用,主要是集中在MoCo和 ...

  8. 【ICML 2015迁移学习论文阅读】Unsupervised Domain Adaptation by Backpropagation (DANN) 反向传播的无监督领域自适应

    会议:ICML 2015 论文题目:Unsupervised Domain Adaptation by Backpropagation 论文地址: http://proceedings.mlr.pre ...

  9. 【ICML 2015迁移学习论文阅读】Unsupervised Domain Adaptation by Backpropagation (DANN) 无监督领域自适应

    会议:ICML 2015 论文题目:Unsupervised Domain Adaptation by Backpropagation 论文地址:http://proceedings.mlr.pres ...

最新文章

  1. luanet更名为distri.lua
  2. 现代制造工程课堂笔记07——应力应变分析(考点应力莫尔圆)
  3. 断电启动+智能插座 七彩虹B460主板实现电脑远程开机
  4. 新一代纯前端控件集 WijmoJS 2018V2发布,提供 Web 设计器,可动态设计页面并生成代码...
  5. 【1】推荐系统评测指标
  6. java基础将字符串进行反转
  7. 基于Ubuntu的linux环境制作嵌入式SD/TF启动卡
  8. 如何解决jsp中文乱码的问题
  9. 【系统分析师】考试内容大纲内容
  10. 计算机部分应用显示模糊,win10系统打开部分软件字体总显示模糊的解决方法
  11. Facebook登陆服务器校验,权限请求以及数据获取
  12. Gson的使用——Gson解析json数组并展示在ListView控件上
  13. 微信文章如何增加阅读率
  14. 认识RAM、ROM、CACHE
  15. 算法013:二维数组中的查找-在一个 n * m 的二维数组中,每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序。请完成一个函数,输入这样的一个二维数组和一个整数,判断中是否存在
  16. Linux常用命令(文件目录操作、拷贝移动、打包压缩、文本编辑、查找)
  17. MapReduce作业在Hadoop完全分布式集群上运行的问题与思考(持续更新)
  18. MATLAB的汽车操纵稳定性仿真分析
  19. 触发浏览器回流的属性方法一览表
  20. python turtle什么意思_Python turtle(介绍一)

热门文章

  1. php显示表格,php – 显示所有表格行
  2. 接连三次霸榜GitHub,这个国产GitHub项目是真的强...
  3. Vue 性能优化--打包优化
  4. OpenStack 镜像密码修改办法
  5. CTRL+SHIFT
  6. 【iOS】iOS 调试快速定位程序在哪崩溃
  7. Hacked VisualSVN Server by PHP to allow user change password
  8. Silverlight中调用WebService-发送邮件测试实例
  9. 联想20年的45条成功法则
  10. linux路由修改密码,Linux中修改Mysql root用户密码的方法