三、方法
用模型来进行无监督模型适应问题,只有来自源域的预训练预测模型CCC和无标签的目标数据集XtX_tXt​,目的是将CCC适应到带有XtX_tXt​的目标域。
提出了一个协作类条件生成对抗网络(3C-GAN),在源数据不存在时进行模型适应。除了已有的预训练的CCC,我们的框架还包括另外两部分:鉴别器DDD匹配目标分布,随机采样的标签上的生成器GGG来产生有效的目标风格的训练样本。通过在训练过程中合并生成数据,在目标域上提升了CCC的性能,反过来还能提升GGG的生成过程。
还设计了两个正则化项来分别防止适应模型与预训练源模型相差太多和提升目标域上的泛化。D,G,CD,G,CD,G,C通过θD,θG,θC\theta_D,\theta_G,\theta_CθD​,θG​,θC​进行参数化。

3.1 协作类条件GAN
为避免使用源数据进行域适应,提出了协作类条件GAN(3C-GAN)来协同提升生成器GGG和预测模型CCC。如图,通过将CCC合并到GAN框架中实现。与传统的GAN模型不同(GGG前提是仅在噪声向量zzz成立),我们的GGG进一步的在一个预定义标签yyy上成立,即xg=G(y,z)x_g=G(y,z)xg​=G(y,z)。与传统GAN不同的(以一种监督方式训练DDD来区分真实和虚假对),我们的DDD被优化来从xgx_gxg​中区分xtx_txt​。DDD的目标方程可表达为公式1:
maxθdExt∼Dt[logD(xt)]+Ey,z[log(1−D(G(y,z)))]max_{\theta_d}E_{x_t\sim D_t}[logD(x_t)]+E_{y,z}[log(1-D(G(y,z)))] maxθd​​Ext​∼Dt​​[logD(xt​)]+Ey,z​[log(1−D(G(y,z)))]
同时,通过生成与xtx_txt​有相似分布的xgx_gxg​来更新GGG来欺骗DDD。因此,GGG的对抗损失ladvl_{adv}ladv​表达为公式2:
ladv(G)=Ey,z[logD(1−G(y,z))]l_{adv}(G)=E_{y,z}[logD(1-G(y,z))] ladv​(G)=Ey,z​[logD(1−G(y,z))]
尽管ladvl_{adv}ladv​模拟了目标分布,并不能保证与输入标签yyy的语义相似度。

基于已有的预测模型CCC提出了一个语义相似度损失lseml_{sem}lsem​,加强了xgx_gxg​和基于预测模型CCC的输入标签yyy之间的语义相似度,定义公式3:
lsem(G)=Ey,z[−ylogpθc(G(y,z))]l_{sem}(G)=E_{y,z}[-ylogp{\theta_c}(G(y,z))] lsem​(G)=Ey,z​[−ylogpθc​(G(y,z))]
这里的pθc(⋅)p_{\theta_c}(\cdot)pθc​​(⋅)表示预测模型CCC预测的类概率。lseml_{sem}lsem​使能生成语义。在包括ladvl_{adv}ladv​匹配目标分布后,生成器GGG的优化目标定义为公式4:
minθGladv+λslsemmin_{\theta_G}l_{adv}+\lambda_sl_{sem}minθG​​ladv​+λs​lsem​
这里的λs\lambda_sλs​平衡两个loss。迭代更新D,GD,GD,G来分别优化(最大最小方程)。最后,G可以产生新的目标风格实例,即{xg,y}\{{x_g,y}\}{xg​,y},用来提升CCC在目标域上的性能。C,GC,GC,G在训练过程中彼此合作,因为提升的CCC可以为GGG提供更准确的指导,一个更可靠的生成可以反过来提升CCC的性能。因此,总框架指的是协作类条件GAN。

除了lgen=Ey,z[−ylogpθC(xg)]l_{gen}=E_{y,z}[-ylogp_{\theta_C}(x_g)]lgen​=Ey,z​[−ylogpθC​​(xg​)],我们进一步包括了两个正则项来提升CCC的性能。最终预测模型CCC的的优化目标表示为公式5:
minθCλglgen+λωlωReg+λclulcluRegmin_{\theta_C} \lambda_gl_{gen}+\lambda_{\omega}l_{\omega Reg}+\lambda_{clu}l_{cluReg}minθC​​λg​lgen​+λω​lωReg​+λclu​lcluReg​
这里λωReg\lambda_{\omega Reg}λωReg​和lcluRegl_{cluReg}lcluReg​表示权重正则化和基于簇的正则化。λg,λω,λclu\lambda_g,\lambda_{\omega},\lambda_{clu}λg​,λω​,λclu​用来调整每个loss的相对效果。在适应过程中,源数据集未用,如图2.

3.2 权重正则化
尽管仅将上述生成的目标风格样本纳入训练CCC就可提升其性能,由于缺少来自标记源数据的准确监督,训练过程并不总是稳定的。受…启发(尝试学习两个单独但相关的对源域和目标域的预测模型),我们提出了权重正则化项lωRegl_{\omega Reg}lωReg​来防止预测模型CCC的参数远离那些在源数据集中学习到的预训练模型。可定义如下公式6:
lωReg=∣∣θC−θCs∣∣2l_{\omega Reg}=||\theta_C-\theta_{C_s}||^2 lωReg​=∣∣θC​−θCs​​∣∣2
这里θCs\theta _{C_s}θCs​​是源域上预训练的CCC的参数,是固定的。可以发现如果θCs\theta _{C_s}θCs​​设为0,lωRegl_{\omega Reg}lωReg​可退化为标准权重衰减正则化项(l2)(l_2)(l2​)。一方面,lωRegl_{\omega Reg}lωReg​防止适应模型改变过大,在稳定适应过程中很有帮助。另一方面,强制适应模型与源模型相似可被视为保持源知识。实验验证lωRegl_{\omega Reg}lωReg​大多情况下有更好的适应。

3.3基于簇的正则化
大多域适应方法关注适应过程,无标签的真实目标数据仅用于估计目标分布,但我们认为无标签的目标数据可用于发现目标域的判别信息。簇假设意味着预测模型的决策边界不应经过高密度的数据区域。因此,我们最小化目标域上预测改了的条件熵,定义公式7:
Ext∼Dt[−pθC(xt)logpθC(xt)]E_{x_t\sim D_t}[-p_{\theta_C(x_t)}logp_{\theta_C(x_t)}] Ext​∼Dt​​[−pθC​(xt​)​logpθC​(xt​)​]
然而,当预测模型不是局部平滑时,上述公式生成的条件熵是不可靠的。为提升未标记目标数据上条件熵的近似程度,一个局部平滑限制应被加上,定义为公式8:
Ext∼Dt[max∣∣r∣∣<=ξKL(pθC(xt)∣∣pθC(xt+r))]E_{x_t\sim D_t}[max_{||r||<=\xi}KL(p_{\theta_C}(x_t)||p_{\theta_C}(x_t+r))] Ext​∼Dt​​[max∣∣r∣∣<=ξ​KL(pθC​​(xt​)∣∣pθC​​(xt​+r))]
这里KL(⋅∣∣⋅)KL(\cdot||\cdot)KL(⋅∣∣⋅)表示Kullback-Leibler散度。我们尝试找到一个干扰rrr在一个强度范围ξ\xiξ内最大程度影响预测。这一限制强制预测输出在xt−xt+rx_t-x_t+rxt​−xt​+r内相似。最终,预测模型对每个无标记目标样本是局部平滑的。

因此,最终的基于簇的正则化写作公式9:
lcluReg=Ext∼Dt[−pθc(xt)logpθc(xt)]+[KL(pθc(xt)∣∣pθC(xt+r~))]l_{cluReg}=E_{x_t\sim D_t}[-p_{\theta_c}(x_t)logp_{\theta_c}(x_t)]+[KL(p_{\theta_c}(x_t)||p_{\theta_C}(x_t+\widetilde r))] lcluReg​=Ext​∼Dt​​[−pθc​​(xt​)logpθc​​(xt​)]+[KL(pθc​​(xt​)∣∣pθC​​(xt​+r))]
这里r~\widetilde rr是来自公式8的对抗干扰。

3.4 实施细节
通过迭代更新C,D,GC,D,GC,D,G进行学习,来分别优化公式5,1,4的目标。实验中,直到几步后生成器产生有意义的数据才将lgen和lcluRegl_{gen}和l_{cluReg}lgen​和lcluReg​应用到CCC。整个模型以端到端的方式训练。

4. 实验
在多个域适应benchmarks上验证方法有效性。对每个任务,仅用源数据获得预训练源模型,在适应过程中不用。最近先进的域适应方法结果用来比较或参考,因为大多不可用,当适应过程中源数据不可用时。
office31上的结果
所有结果都ResNet-50作为骨干。第一行显示了在源域上finetune的性能作为基准,很明显我们的模型比其他好很多。特别的,对比GenToAdapt和MADA(包括复杂架构和目标方程),我们的方法在六个适应任务上有提升。

可视化分析
为了分析我们3C-GAN中的协作机制,呈现了在标签0-9上的生成样本,如图3,每列相同类标签,每行相同噪声向量。图3(上)表示在早期C在目标域上比较弱时产生的样本,图3(底部)表示在适应最后阶段产生的样本。可以发现我们的生成器可以学习这些任务的类条件数据分布。并且,在将生成实例融进训练预测模型后,预测模型性能增加。增强的预测模型也可以提升生成器内的目标类分布学习。一个典型图示3(a).生成质量在最后阶段变得更好,当适应预测模型在目标域上提升时。意味着C和G可以在适应过程中彼此合作。
为进一步证明我们模型的有效性,视觉上监督生成图像。图4显示两个任务上的类条件生成。两种情境下,生成图像是连续的,输入标签和风格信息用噪声向量zzz加密。而且,视觉化目标特征在适应亲啊后的分布,图5,用t-SNE投影最后隐层特征到2维空间中。目标实例在适应后对每个类强簇化。这些观察说明我们的模型准确类条件生成在目标域上,验证了模型好的适应性能。

消融研究
为验证提出方法鲁棒性,采用一个与LeNet相似的小分类器进一步验证。
验证生成图像在提升模型适应性上共享,首先移除我们的3C-GAN中的lgenl_{gen}lgen​。从模型变量的最后一个模块来看,模型没有lgenl_{gen}lgen​会无法收敛。考虑只有提出正则化的预测模型会损害其判别性,由于不同的分布。接下俩,去除两个正则化lωReg,lcluRegl_{\omega Reg},l_{cluReg}lωReg​,lcluReg​,仅有lgenl_{gen}lgen​的模型性能比Source-Only模型提升很多。结果表明我们呢的3C-GAN可以获得可靠的类适应泛化,帮助模型适应性能。
为检查提出正则化项的有效性,在训练中设置λclu=0\lambda_{clu}=0λclu​=0来忽略lcluRegl_{cluReg}lcluReg​。考虑权重正则化不仅防止模型改变过大,而且集成了预训练源模型中的知识,因此性能更稳定更好。
验证了我们我们基于簇的正则化可以将决策边界原理密集的目标域上的数据区域,增加预测模型的泛化性能。
进一步去除公式8的平滑限制研究适应性你,这个限制帮助条件熵估计,提升了泛化性能。

5.结论
提出一个新的基于模型的无监督域适应方法没有源域数据。提出3C-GAN来略过对源数据的依赖。通过将生成图像融入适应过程中,预测模型和生成器可以互相提高通过协作学习。还引入权重正则化和基于簇的正则化来稳定训练,进一步提升目标域熵泛化性能。

Model Adaption: Unsupervised Domain Adaption Without Source Data相关推荐

  1. Understanding unsupervised domain adaption

    理解无监督域适应方法: https://zhuanlan.zhihu.com/p/27903002 Deep Domain Confusion: Maximizing for Domain Invar ...

  2. Unsupervised Domain Adaption of Object Detectors : A Survey

    目录 摘要 1.简介 2.2.域适配 2.2.1.无监督域适配 3.方法 3.1.对抗特征学习 3.1.1.通过梯度倒转来进行特征学习 3.1.2.通过对抗训练来进行域适应检测 3.1.3.权重对抗特 ...

  3. CYCADA: cycle-consistent adversaial domain adaption阅读笔记

    CYCADA: cycle-consistent adversaial domain adaption阅读笔记 目录 CYCADA: cycle-consistent adversaial domai ...

  4. Domain Adaption 领域自适应

    定义(from Wiki): Domain Adaption是transfer leanring(迁移学习)中很重要的一项内容.主要目的是将具有不同分布的(data distribution)的具有标 ...

  5. 转载:domain adaption

    有一篇论文([cvpr2017]Joint Geometrical and Statistical Alignment for Visual Domain Adaptation )对Domain Ad ...

  6. 论文阅读问题总结(六):Meta-Learning with Domain Adaption for Few-shot Learning Under Domain Shift

    1.这篇paper作者提出要解决的问题? 作者提出,大部分现存的小样本元学习领域的一些工作都基于两个假设: training task和testing task都是从满足同一task distribu ...

  7. 无源领域自适应:Source Hypothesis Transfer for Unsupervised Domain Adaptation

    Do We Really Need to Access the Source Data? Source Hypothesis Transfer for Unsupervised Domain Adap ...

  8. 学习笔记|领域自适应(Domain adaption)——实现模型的自适应迁移

    1. 领域自适应网络概述 有时候我们在某个领域训练出的一个模型,想迁移到另一个领域,这样我们就不需要每个领域都去标注大量的数据了.但是这两个领域的数据分布是有些差异,要如何办呢?比如我们在黑白图片上训 ...

  9. style transfer/domain adaption简介

    style transfer和domain adaption还是有很多相似之处的,本文挑选几篇文章进行简略介绍 Texture Synthesis Using Convolutional Neural ...

最新文章

  1. 转 sessionid如何产生?由谁产生?保存在哪里?
  2. [转帖]Ubuntu 对应内核版本
  3. 第三次学JAVA再学不好就吃翔(part23)--private和this
  4. 怎么在Windows 11中为音频输出选择扬声器
  5. HDU3790 最短路径问题【Dijkstra算法】
  6. SPI通信协议技术说明文档
  7. 用U盘给虚拟机装系统——U深度
  8. 学计算机干眼,长时间看电脑致视力模糊?4个动作解决干眼症
  9. element.style样式如何修改
  10. flac转mp3的方法
  11. 关于VS2010下编译NTL库方法及NTL库的应用
  12. Oracle查询某一天数据的SQL语句的几种写法
  13. sparksql agg用法
  14. uni-app 三种弹窗(提示弹窗、加载弹窗、模态弹窗)
  15. hive-jdbc-uber-2.6.5.0jar包自提
  16. 【蓝牙开发 - BLE】BLE广播包
  17. 2008大连市政府挂牌督办48项工作圆满实现全年目标
  18. IoT黑板报0113:你天天在扫的二维码其实是日本人发明的
  19. 热模块替换实现与原理
  20. ncurses库的安装与入门

热门文章

  1. 【机器学习】基于mnist数据集的手写数字识别
  2. 用诺模图可视化你的模型
  3. Unity-VR | AR相关(更新中)
  4. web服务器性能排名,主流Web服务器性能测试
  5. 用计算机配置局域网,怎么把一台电脑设置为局域网服务器
  6. 微信抢红包的方案_微信抢红包怎样才能抢到最大的告诉你一个方法
  7. Vue CLI构建SPA项目教你手把手创建SPA项目
  8. Redis学习之srem命令
  9. Android Interpolator(插值器)的介绍和使用
  10. 高德地图使用鼠标工具(mouseTool)画覆盖物折线(mouseTool.polyline),光标使用十字架(crosshair)类型,不断出现closehand小手图标干扰