©作者|张亚斌

学校|香港理工大学

研究方向|迁移学习

本文介绍我们最近的一篇 TPAMI 工作:Unsupervised Multi-Class Domain Adaptation: Theory, Algorithms, and Practice。

论文标题

Unsupervised Multi-Class Domain Adaptation: Theory, Algorithms, and Practice

论文链接

https://arxiv.org/abs/2002.08681

代码链接:

https://github.com/YBZh/MultiClassDA

太长不看精简版:

理论方面:基于对 score functions 差异的充分度量,我们提出了 MCSD divergence 来充分衡量两个 domain 的 divergence;进而引出新的 theoretical bound.

算法方面:基于 MCSD divergence 提出了两个新的算法框架:McDalNets 和 SymNets. McDalNets 统一了 MCD, DANN, MDD 等经典算法,SymNets 对我们 CVPR 论文的初始版本进行了改进。

实践方面:在 Closed set, partial, and open set 三个任务多个数据集上验证了我们方法的有效性。

域适应(domain adaptation)是迁移学习中的重要课题。该课题的目标是:

输入有标签的源域数据和无标签的目标域数据,输出一个适用于目标域的模型。 源域和目标域假设任务相同但是数据分布不同。

既然源域和目标域的数据分布不同,该任务的经典解决方法是:

找到一个特征空间,将分布不同的源域和目标域数据映射到该特征空间后,希望源域和目标域的数据分布差异尽可能小;这样基于源域数据训练的模型,就可以用于目标域数据上。

因此如何找到该特征空间,更具体来说,如何衡量两个域数据分布之间的差异是域适应任务的核心问题。

通过对抗训练的方式实现两个域的数据分布对齐在域适应任务中被广泛采用 [1]。近期很多对抗域适应的算法采用特征映射网络和分类器进行对抗的方式 [2,3,4,5]。

虽然基于分类器进行对抗训练的方法 [2,3,4,5] 取得了不错的结果,但是这些算法与现有理论并不是完全吻合的;也就是说,理论和算法之间存在一定的差距。出于此目的,我们对现有的域适应理论进行了改进,使其可以更好的支撑现有算法。

同时,基于该理论框架,我们提出了一系列新的算法,并在 closed set, partial, and open set 域适应三个任务上验证了其有效性。该文章的要点可以总结如下:

1. 理论方面:提出了 Multi-Class Scoring Disagreement (MCSD) divergence 来衡量两个域数据分布之间的差异;其中 MCSD 可以充分衡量两 个 scoring hypotheses(可以理解为分类器)之间的差异。基于 MCSD divergence, 我们提出了新的 Adaptation Bound,并详细讨论了我们理论框架和之前框架的关系。

2. 算法方面:基于 MCSD divergence 的理论,我们提出了一套新的代码框架 Multi-class Domain-adversarial learning Networks (McDalNets)。McDalNets的不同实现与近期的流行方法相似或相同,因此从理论层面支撑了这些方法 [2,3,4,5]。此外,我们提出了一个新的算法 SymmNets-V2, 该方法是我们之前会议工作 [3] 的改进版本。

3. 实践方面:我们在 closed set, partial, and open set 三种实验设置下验证了我们提出方法的有效性。

理论方面

如上文所言,如何衡量两个域之间的差异是域适应任务的核心问题。为了更加细粒度地衡量两个域之间的差异,我们引入了如下的 MCSD divergence:

其中

充分衡量了 scoring functions












在域 D 上的不一致性(相对于下面将要描述的其他度量方法)。


































的定义如下:












是 ramp loss,



















指代 absolute margin function  






















的第 k 个值。上述定义有些复杂,我们接下来对其直观描述:













的每一列
















计算了 violations of absolute margin function 


















,进而 度量了












之间margin violations 的差异,一个直观的例子如 Fig 1(c) 所示:

到了这里,大家应该会疑惑:这个 MCSD divergence 看上去挺复杂的,它有什么好处?MCSD 的优势如下:

理论角度:MCSD 可以充分度量 两个 scoring functions 的差异!!同时导出后续的 bound.

算法角度:对 scoring functions 的差异的充分度量可以直接支撑基于分类器进行对抗训练的方法 [2,3,4,5].

为了展示 MCSD 对 scoring functions 差异的充分度量,我们基于 absolute margin function




引入其他 domain divergence [6,7] 的变种或等效形式。

是absolute margin-based variant of margin disparity (MD) [6]: , where 是relative margin function,进而基于














































得到的 divergence 是 MDD [6] 的变种。

是absolute margin-based equivalent of the hypothesis disagreement (HD) [7]: 。进而基于














































得到的 divergence 等效于























作为 3 种不同的度量 scoring functions 差异的方法,其直观对比如 Fig 1 所示,可以总结如下:
















































  • 采用 0-1 二值 loss 只衡量了



















    的最终类别预测是否一致。

  • 相对





























































































    通过引入 margin 在 0 和 1 之间做了一个平滑的过渡。

  • 以上两者都只考虑了 scoring functions 的部分输出,







































    首次将 scoring functions 的所有输出值加以考虑。故而 MCSD 可以充分度量 scoring functions 的差异。

基于 MCSD divergence, 我们可以得到如下的 bound:

,其中















是 targer error,



















是 source error,




可视为与数据集合 hypothesis space 相关的常数。相应的 PAC bound 也可以导出。

总的来说,我们提出了一种 MCSD divergence 来充分度量两个 scoring functions 的差异,进而提出了一种新的 adaptation bound. 那么充分度量两个 scoring functions 的差异有什么好处呢?后续的对比实验经验性的回答了该问题。

算法方面

上述理论可以推导出一系列的算法,我们将这些算法统一命名为 McDalNets。基于上述 bound, 为了最小化 target error















,我们需要找到可以最小化
































的 feature extractor







以及可以最小化 source error



































。将
































展开成



















的形式可以得到如下的优化目标:

其中


























分别是分布



















经由映射




得到的特征分布。该优化目标如下图所示:

上述目标仍然难以直接优化,因为 ramp loss










会导致梯度消失的问题。为了便于优化,我们引入了一些 MCSD 的替代度量方法。这些替代度量方法应该具有如下特点:





















  1. 在 domain 上的输出越趋于一致,替代度量方法的值越小





















  2. 在 domain 上的输出越差异越大,替代度量方法的值越大

我们在本文中采用了三种 MCSD 的替代度量方法,分别是:

其中







是 softmax 函数,










是 KL 散度,










是交叉熵函数。其他具有上述两点特点且便于优化的函数都可以用来作为 MCSD 的替代度量方法。

当采用







loss 作为替代度量时,McDalNet 与 MCD [2] 方法极其相似。需要强调的是,虽然 MCD 算法是从








-divergence [7] 推导而出的,但是 MCD 算法与








-divergence 存在明显 gap:MCD 算法采用 L_1 loss 衡量了classifiers outputs 在 element-wise 的差异,而








-divergence只考虑了classifiers 类别预测的不一致性。

考虑到 MCSD 是基于对 classifiers outputs 在 element-wise 的差异的度量,因此 MCSD divergence 可以更直接,更紧密的支撑 MCD 这类基于 classifiers outputs 差异做对抗训练的方法。

类似







































,我们也可以基于






























































































得到对应的类似 McDalNet 的算法。其中基于














































得到的方法完全等效于 DANN [1],基于














































得到的方法是 MDD [6] 的一个变种。

我们将不同 McDalNet 的算法在标准的域适应数据集上进行对比,结果如下图所示:

除了上述的 McDalNet 框架,基于 MCSD divergence, 我们还引入了一个  Domain-Symmetric Networks (SymmNets) 的新框架,如下图所示。

该框架是基于 CVPR 的论文 [3] 做的改进,因此我们称之为 SymmNets-V2. 相对于 McDalNets, SymmNets-V2 没有额外的 task classifier,而是将其与 classifiers for 域对齐进行了合并。

该方法在网络结构上的鲜明特点是将两个 classifiers 拼接到一起,并用拼接得到的 classifier 用作域对齐;通过这种方式,我们赋予了两个 classifiers 明确的 domain 信息,同时取得了更优的实验结果。SymmNets-V2 的优化目标如下:

其中 是分类损失,用来赋予
















类别信息, 用来增大
















的输出差异, 分别用来减小
















在源域数据和目标域数据上的输出差异。其具体定义和与 MCSD 的联系请参考论文。

对于熟悉 DANN [1] 的读者,可以将 SymmNets 看做将 category information 引入 DANN 的直接扩展。具体来说,如果我们分别将












中的所有类别当成整体,那么整体化之后的
















就分别对应着 DANN 二分类 domain classifier 中的源域和目标域;

这样 SymmNets 中的增大/减小
















的输出差异就对应着 DANN 中的 domain discrimination/domain confusion. 将 DANN 二分类 domain classifier 中的源域和目标域扩展成由
















拼接成的 2K 分类器,可以为在域对齐过程中引入 category information 做好模型结构准备。

实践方面

我们在 closed set, partial, and open set domain adaptation 三个任务共七个数据集上验证了我们提出的 McDalNets 和 SymmNets 的有效性。

相对 closed set 的任务,partial and open set domain adaptation 任务中的难度增大很大程度是两个域中共享类别的样本与其中一个域中独有类别的样本在 adaptation 过程中发生了错误对齐带来的;因此 SymmNets 中对 category information 的引入和对 category level alignment 的促进可以极大的缓解该错误对齐现象,从而对 partial 和 open set domain adaptation 带来帮助。

最后,我们通过如下的 t-SNE 可视化来说明我们提出的 SymmNets 的有效性。

参考文献

[1] Domain-Adversarial Training of Neural Networks, JMLR16
[2] Maximum Classifier Discrepancy for Unsupervised Domain Adaptation, CVPR18
[3] Domain-Symmetric Networks for Adversarial Domain Adaptation, CVPR19
[4] Unsupervised Domain Adaptation via Regularized Conditional Alignment, ICCV19
[5] Sliced wasserstein discrepancy for unsupervised domain adaptation, CVPR19
[6] Bridging Theory and Algorithm for Domain Adaptation, ICML19
[7] A theory of learning from different domains,ML10

更多阅读

#投 稿 通 道#

 让你的论文被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

???? 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

???? 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site

• 所有文章配图,请单独在附件中发送

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

TPAMI 2020 | 无监督多类域适应:理论,算法与实践相关推荐

  1. 顶刊TPAMI 2020 | 一文打尽无监督多类域适应:理论,算法与实践

    点击上方"CVer",选择加"星标"置顶 重磅干货,第一时间送达 本文作者:张亚斌 https://zhuanlan.zhihu.com/p/320057516 ...

  2. 非监督多类域适应:理论,算法和实践

    点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入! 『今日视频推荐』 非监督多类域适应(UDA)是机器学习和迁移学习下的研究领域,它的任务是解决现实应用中源域和目标域之间存在差异的问题.本 ...

  3. 最新开源无监督单目深度估计方法,解决复杂室内场景难训练问题,效果性能远超SOTA...

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 一.摘要 无监督单目深度估计算法已经被证明能够在驾驶场景(如KITTI数据集)中得到精确的结果,然而最 ...

  4. 文本相似度之五种无监督算法实现代码

    短文本相似度,即求解两个短文本之间的相似程度:它是文本匹配任务或文本蕴含任务的一种特殊形式,返回文本之间相似程度的具体数值.然而在工业界中,短文本相似度计算占有举足轻重的地位. 例如:在问答系统任务( ...

  5. TPAMI 2022|基于最优传输理论的无监督图像重建学习

    作者丨王炜 来源丨上海交通大学类脑智能应用与技术中心 编辑丨极市平台 论文地址:https://ieeexplore.ieee.org/document/9763342 开源地址代码:https:// ...

  6. 语义表征的无监督对比学习:一个新理论框架

    点击上方↑↑↑蓝字关注我们~ 「2019 Python开发者日」7折优惠最后3天,请扫码咨询 ↑↑↑ 译者 | Linstancy 责编 | 琥珀 出品 | AI科技大本营(ID:rgznai100) ...

  7. CVPR 2020 | 反传统的无监督人脸旋转方案:旋转-渲染

    ©PaperWeekly · 作者|周航.刘吉豪 学校|香港中文大学.商汤科技 前言 这篇论文既异于传统.摆脱监督.从全新角度看待人脸旋转问题,又方法极简.模块原始.效果上还有较大提升空间.终究能幸运 ...

  8. ACL 2020 | 多跳问答的基于对齐的无监督迭代解释检索方法

    ©PaperWeekly 原创 · 作者|舒意恒 学校|南京大学硕士生 研究方向|知识图谱 论文标题:Unsupervised Alignment-based Iterative Evidence R ...

  9. 图像风格迁移cvpr2020_CVPR 2020 | 浙大李俊成:用无监督强化学习方法来获得迁移能力...

    作者 | 李俊成编辑 | 蒋宝尚 本文是对浙江大学和加州大学圣巴巴拉分校合作完成的,被CVPR 2020收录的论文<Unsupervised Reinforcement Learning of ...

最新文章

  1. pytorch 调用forward 的具体流程
  2. 腾讯阿里是否开始走向没落,用新互联网大脑模型分析
  3. 用Cobertura 测量测试覆盖率
  4. mysql生成随机验证码_MySQL 生成随机数字、字符串、日期、验证码及 UUID的方法...
  5. python3.6.5安装教程-Centos7 安装Python3.6.5
  6. Linux中gcc的编译、静态库和动态库的制作
  7. 欧洲安全研究人员:黑客是如何泄露加密电子邮件
  8. matlab中有哪些有趣的命令?好玩的matlab彩蛋
  9. dqn在训练过程中loss越来越大_DQN算法实现注意事项及排错方法
  10. 【Boost】boost库asio详解3——io_service作为work pool
  11. 【强化学习】Policy Gradients代码注释版本
  12. Supervisor管理springboot应用进程
  13. 百度UEditor控件中的map组件不支持https使用的问题解决
  14. 数字字符减去数字字符0就是数字
  15. shell脚本学习指南-学习(2)
  16. Python编程学习:中兴LTE网管MML命令脚本生成器
  17. python垃圾分类程序_如何利用Python进行垃圾分类
  18. html5自动播放视频
  19. 孝感市小学生机器人编程比赛_小学生获机器人大赛一等奖 编程是语文老师教的...
  20. 这是您正在找的大数据、人工智能实战培训课程!

热门文章

  1. c语言中穷竭算法,hihocoder#1054 : 滑动解锁(深度优先搜索)
  2. 均方根误差有没有单位_Python误差评判:MAE、MSE、RSquare、MAPE和RMSE
  3. 不定积分24个基本公式_不定积分计算—典型题及解题技巧
  4. 如何解决项目中.a文件中的.o冲突
  5. Zookeeper-watcher机制源码分析(二)
  6. 小技巧2 - 负边距居中法
  7. iOS 删除、重新排序xcdatamodel
  8. jquery 判断手势滑动方向(上下左右)
  9. 创建javascript对象的几种方式
  10. JSF优点(转载自中国IT实验室)