DDC针对预训练的AlexNet(8层)网络,在第7层(也就是feature层,softmax的上一层)加入了MMD距离来减小source和target之间的差异。这个方法简称为DDC。

Abstract

最近的报告表明,在大规模数据集上训练的通用监督深度CNN模型减少了,但没有消除标准benchmark上的数据集的bias。在一个新的领域中对深度模型进行微调(Fine-tuning deep models )可能需要大量的数据,而对于许多应用来说,这些数据是不可用的。我们提出一种新的CNN架构,它引入了一个适应层(adaptation layer )和一个额外的domain confusion loss,以学习一个语义上有意义和域不变的表示。此外,我们还展示了一个domain confusion metric 可以用于模型选择,以确定自适应层的维数和该层在CNN体系结构中的最佳位置。我们提出的适应方法提供了经验的表现,这超过了以前发表的标准benchmark视觉的域适应任务的结果。

1. Introduction

调整深度模型的传统方法是微调(fine-tuning),在少量标记的目标数据上直接微调深度网络的参数是有问题的。不过预先训练的深度模型(预训练模型)在新域中表现良好。

​​​​​​​我们提出了一种新的CNN架构,如图1所示,该架构使用了一个自适应层(adaptation layer)和一个基于最大平均偏差(MMD,maximum mean discrepancy)[6]的domain confusion loss来自动学习一个联合训练的表示来优化分类和域不变性。我们展示了我们的domain confusion metric既可以用来选择适应层的维数,也可以在一个预先训练好的CNN体系结构中为一个新的适应层选择一个有效的位置,还可以对表示形式进行微调。

我们的结构既可以解决supervised adaptation(当有少量目标标记数据可用时)问题,也可以解决unsupervised adaptation(当没有标记目标训练数据可用时)问题。

Figure 1: Our architecture optimizes a deep CNN for both
classification loss as well as domain invariance. The model
can be trained for supervised adaptation, when there is a
small amount of target labels available, or unsupervised
adaptation, when no target labels are available. We introduce
domain invariance through domain confusion guided
selection of the depth and width of the adaptation layer, as
well as an additional domain loss term during fine-tuning
that directly minimizes the distance between source and target
representations.

2. Related work

3. Training CNN-based domain invariant representations

We introduce a new CNN architecture which we use to learn a visual representation that is both domain invariant and which offers strong semantic separation. 经过训练的CNN可以通过微调来适应新的任务。然而,在域适应场景,在目标域T几乎没有标记的训练数据,所以我们不能直接调整网络。相反,我们将使用的数据相关但不同的源域S,在这个源域中有更多可用的标签数据。

只使用源域的数据直接训练一个分类器常常会导致过度拟合源域的分布,而在目标域中进行识别时又会导致测试时性能下降。如果我们能够学习一种最小化源域分布和目标域分布之间距离的表示,那么我们就可以在源域上标记的数据上训练一个分类器,并将其直接应用到目标域中,同时精度损失最小。

为了使这个距离最小化,我们考虑了标准分布距离度量,即最大平均偏差(MMD)[6]。这个距离是计算对一个特定的表示,。在我们的任务中,我们定义了一个表征,,即表示在源域的数据点,,和目标数据点。然后计算这个距离的经验公式近似如下:

如图2所示,我们不仅想要最小化域之间的距离(或者最大化domain confusion),还想要得到有助于训练强分类器的表示。这样的表示将使我们能够学习易于跨域转换transfer的强分类器。满足这两项要求的一个办法是尽量减少损失:

其中表示在可用的带标签数据上的分类损失,以及所带的真实ground truth标签表示源域数据与目标数据之间的距离。参数表示我们confuse the domain的程度。

4. Evaluation

4.1. Evaluating adaptation layer placement

我们首先评估我们的特征表示选择策略。利用一个预先训练好的卷积神经网络,利用每一个全连接层的表示形式,从源域数据和目标域数据中提取特征,然后可以在每一层中计算源域和目标域之间的MMD。由于MMD越低,表示的域不变程度越高,因此我们期望MMD越低越好,MMD越低其表示自适应后性能越好。fc7是性能最好的层,fc6是性能最差的层,因此,后续在fc7之后添加了adaptation layer 。[作为以后设计结构的时候层的选择的参考]

4.2. Choosing the adaptation layer dimension

因此综合考虑选择256维。

4.3. Fine-tuning with domain confusion regularization

4.4. Historical Progress on the Office Dataset

5. Conclusion

论文提出的架构一部分是希望source domain 和 target domain 通过特征提取的网络可以得到其不变的特征,所以设计的domain loss 应该是让其提取的特征非常接近。

[DDC]Deep Domain Confusion: Maximizing for Domain Invariance相关推荐

  1. Deep Domain Confusion: Maximizing for Domain Invariance

    1. 作者 来源 UC Berkeley 与 UMass Lowell, 的Eric Tzeng, Judy Hoffman, Ning Zhang ,Kate Saenko,Trevor Darre ...

  2. 翻译论文:Deep Domain Confusion: Maximizing for Domain Invariance

    题外话: 第一次做全文翻译,翻译不好请谅解,多多给予意见.最近在看DDC,顺便就把这篇文章翻译一下. 摘要 最近的报告表明,在大规模数据集上训练的通用监督深度cnn模型可以减少但不消除对标准基准数据集 ...

  3. Deep Domain Confusion:Maximinzing for Domain Invariance阅读笔记

    摘要 近期研究表明,通常而言,一个在大量数据上训练的监督学习深度CNN模型可以减少但是不能移除一个标准基准上的数据集偏差.在新的域内使用基于微调的深度模型对数据量有很高的需求,这种限制使得这种方法在很 ...

  4. 【论文阅读】Deep Cocktail Network: Multi-source Unsupervised Domain Adaptation with Category Shift

    Deep Cocktail Network: Multi-source Unsupervised Domain Adaptation with Category Shift SUMMARY@ 2020 ...

  5. 【论文精读】Deep Defocus Map Estimation using Domain Adaptation-2019CVPR

    题目:Deep Defocus Map Estimation using Domain Adaptation 题目:使用区域适应的深度散焦map估计 作者:Junyong Lee 来自POSTECH ...

  6. How to Build a Graph-Based Deep Learning Architecture in Traffic Domain A Survey

    How to Build a Graph-Based Deep Learning Architecture in Traffic Domain: A Survey 1. 文章概述 1.1 本文主要内容 ...

  7. 『 DSSM』A Multi-View Deep Learning Approach for Cross Domain User Modeling in Recommendation Systems

    Abstract MULTI-VIEW-DNN联合了多个域做的丰富特征,使用multi-view DNN模型构建推荐,包括app.新闻.电影和TV,相比于最好的算法,老用户提升49%,新用户提升110 ...

  8. TGRS2020/遥感:Multisource Domain Adaptation for Remote Sensing Using Deep Neural Netw基于深度神经网络的遥感多源域自适应

    TGRS2020/遥感:Multisource Domain Adaptation for Remote Sensing Using Deep Neural Networks基于深度神经网络的遥感多源 ...

  9. 遥感-Deep Covariance Alignment for Domain Adaptive Remote Sensing Image Segmentation域自适应遥感图像分割中深度协方差对齐

    Deep Covariance Alignment for Domain Adaptive Remote Sensing Image Segmentation域自适应遥感图像分割中的深度协方差对齐 0 ...

  10. 有关UDE(Unsupervised Domain Expansion)以及UDA,DG的思考与调研

    一.UDE,UDA以及几个其他相近概念的区别 几个相似概念的区别解释: 概念 解释 训练 测试 域泛化(Domain Generalization) 域泛化的目标是从多个不同但相关的域学习一个模型,该 ...

最新文章

  1. wordpress ajax 调用wpdb_莫名其妙的调用Roboto字体又莫名其妙的恢复的过程
  2. java 鼠标单击_不通过鼠标点击,单纯的通过Java代码生成鼠标单击事件
  3. c语言获取安卓弹窗,Android实现信息弹出框
  4. c语言的运算符表格,C语言教案(运算符和表格达式).ppt
  5. Python小白的数学建模课-06.固定费用问题
  6. Qt工作笔记-可拖动大小的QListWidget(自定义控件方式)
  7. 小学在班里排第几名家长才比较放心?
  8. 去年出货的工业机器人,超过1/3都跑来了中国
  9. python socket模块 和pyqt5_PyQt5+Socket实现CS架构的建议聊天室
  10. 开发服务器 安装 centos 8 无法进入图形安装界面 X startup failed falling back to text mode
  11. 多目标优化系列1---NSGA2的非支配排序函数的讲解
  12. 闪迪MicroSD卡无法格式化修复经验(不一定管用)
  13. Error from chokidar (C:\): Error: EBUSY: resource busy or locked, lstat ‘C:\hiberfil.sys‘的解决方案
  14. 古月居ROS入门——话题、Publisher、Subscriber
  15. 项目实训-中医药知识图谱5
  16. springboot+毕业设计管理系统 毕业设计-附源码221032
  17. @Required用法
  18. 浪潮全球化的一面:从OEM到JDM,从ODCC到OCP
  19. SOA 服务设计-传统车载架构的迭代升级
  20. 14年高考结束了,明日边缘看完了,明天周一了 (2014-06-08)

热门文章

  1. 阄阄乐-IOS抓阄抽签工具
  2. AJDK-Wisp协程
  3. 怎么强力卸载360天擎_如何手动卸载天擎
  4. 2022 Google I/O 谷歌开发者大会汇总
  5. 【金猿案例展】某大型股份制银行——指标的统一管理和分析平台
  6. express基本使用步骤
  7. 北漂生活第十四弹-5.24 兜兜转转又是一周
  8. Tilera--100核cpu
  9. gimp 抠图_GIMP 的基本操作
  10. linux换终端的背景颜色,肿么调整linux终端背景颜色