《Low-Rank Transfer Subspace Learning》论文学习
2012 IEEE 12th International Conference on Data Mining

文章目录

  • 摘要
  • 一、介绍
    • 1.1相关工作
  • 二、低秩转移子空间学习
    • 2.1问题公式化
    • 2.2求解优化问题
    • 2.3计算复杂度
  • 三、LTSL实例
  • 四、实验评价
    • 4.1合成数据的实验
    • 4.2 UB KinFace数据库
    • 4.3 Yale B and CMU PIE数据库
    • 4.4讨论
  • 总结
  • References

摘要

迁移学习的目的是通过处理源领域和目标领域之间的细微差异,找到将学习到的知识从源领域转移到目标领域的方法。
在本文中,我们提出了一种新的框架,通过低秩表示约束来解决上述知识转移问题。
在Yale B、CMU PIE、UBKinFace数据库上的大量实验验证了所提出方法的有效性。
Keywords-low-rank; transfer learning; domain adaptation;


一、介绍

低秩转移子空间学习(LTSL)

其核心思想是找到一个由投影矩阵PPP跨越的空间,其中目标域中的每个数据点与源域中的数据共享一个子空间,就好像这个单个数据点是严格从源域中的子空间绘制的一样。
我们的方法中存在两个任务,即寻找投影PPP和寻找源域和目标域中数据之间的映射。
第一个任务通过使用子空间学习方法
第二个任务通过低秩表示完成,该表示揭示了源域和目标域的子空间划分信息。

1.1相关工作

对迁移学习进行分类的一种常见方法是基于域和任务的属性。我们的框架属于转导迁移学习范畴。
低秩恢复(鲁棒PCA)、矩阵完成和低秩表示(LRR)是通过低秩约束计算损坏或缺失数据的鲁棒表示的方法。
此外,LRR同时恢复数据矩阵和结构信息,通过这些信息可以精确分割数据所在的子空间。
Si等人提出了一种基于子空间的转移学习,以减少源域和目标域之间的分布差异,这与本文提出的框架类似。但在以下方面存在一些差异:

  1. 我们使用LRR代替分布散度来指导子空间学习
  2. LRR对噪声、严重损坏以及异常值更具鲁棒性
  3. 采用传统的转导学习方式,需要目标域中所有未标记的数据来更好地估计布雷格曼散度(为了统计充分性)。幸运的是,我们只需要目标域中的少量标记数据。

二、低秩转移子空间学习

2.1问题公式化

给定的数据集很少由单个子空间很好地描述,相反,数据更可能位于多个子空间中,为每个基准寻找合适的子空间形成了一个有趣的问题,称为子空间分割。正确的方法可能是仅使用适当子空间内源域中的少量数据来重建特定目标数据,如图2所示。

我们使用XtX_tXt​、XsX_sXs​表示来自目标域的测试数据,使用字典表示来自源域,使用ZZZ指定XsX_sXs​和XtX_tXt​之间的线性关系。
我们感兴趣的是找到一个子空间PPP,其中来自目标域的测试数据可以由来自子空间并集的一些子空间SiS_iSi​线性表示,其中SiS_iSi​来自源域的子空间集⋃i=1kSi\bigcup_{i=1}^k S_i⋃i=1k​Si​。
PPP和SiS_iSi​的子空间的含义略有不同,前者本质上是一个投影,而后者是一组位于PPP中的数据。
基本问题: 目标是找到一个判别子空间P,其中测试数据可以由源域中具有秩约束的某个子空间SiS_iSi​的数据线性表示。即:
P,Z=argminP,ZF(P,Xs)+rank(Z),s.t.,PTXt=PTXsZ,(1)\begin{gathered} P,Z=\mathop{arg\space min}\limits_{P,Z} F\left(P,X_s\right)+\mathcal{rank}(Z),\\ s.t.,P^TX_t=P^TX_sZ,\tag {1} \end{gathered} P,Z=P,Zarg min​F(P,Xs​)+rank(Z),s.t.,PTXt​=PTXs​Z,​(1)
其中F(P,Xs)F(P,X_s)F(P,Xs​)是一般子空间学习函数,rank(Z)rank(Z)rank(Z)是投影子空间PPP中从XsX_sXs​到XtX_tXt​的知识转移的约束。
与LRR类似,我们也使用低秩约束系数矩阵ZZZ,但在学习子空间PPP中平滑转移学习。

在右图中,所有数据都投影到二维空间,其中目标域中的大多数数据由源域中除红色外的一些子空间适当表示。这种行为可以用以下问题中的误差项E很好地解释:
P,Z,E=argminP,Z,EF(P,Xs)+rank(Z)+λ∥E∥2,1,s.t.,PTXt=PTXsZ+E,(2)\begin{gathered} P,Z,E=\mathop{arg\space min}\limits_{P,Z,E} F\left(P,X_s\right)+\mathcal{rank}(Z)+\lambda\|E\|_{2,1},\\ s.t.,P^TX_t=P^TX_sZ+E,\tag {2} \end{gathered} P,Z,E=P,Z,Earg min​F(P,Xs​)+rank(Z)+λ∥E∥2,1​,s.t.,PTXt​=PTXs​Z+E,​(2)
我们使用的l2,1l_{2,1}l2,1​范数表示图3中所示的样本特定误差。
T2T2T2的红色数据不能正确地由S2S2S2中的源数据表示,因为其间有较大的间距E。添加一个项EEE可以解释这种情况,我们仍然可以通过消除该误差找到该“异常值”(S2S2S2中对应的蓝点)b的表示。
核规范∥⋅∥∗\| \cdot\|_{*}∥⋅∥∗​是秩最小化问题的良好替代,我们将问题重写为:
P,Z,E=argminP,Z,EF(P,Xs)+∥Z∥∗+λ∥E∥2,1,s.t.,PTXt=PTXsZ+E,(3)\begin{gathered} P,Z,E=\mathop{arg\space min}\limits_{P,Z,E} F\left(P,X_s\right)+\|Z\|_{*}+\lambda\|E\|_{2,1},\\ s.t.,P^TX_t=P^TX_sZ+E,\tag {3} \end{gathered} P,Z,E=P,Z,Earg min​F(P,Xs​)+∥Z∥∗​+λ∥E∥2,1​,s.t.,PTXt​=PTXs​Z+E,​(3)
通过求解PPP和ZZZ,我们可以为目标域中的每个数据xtx_txt​找到合适的子空间SiS_iSi​和系数向量。
我们在目标数据上使用子空间学习函数的能量,即F(P,Xt)F(P,X_t)F(P,Xt​),来衡量子空间PPP的有效性。根据这个测量,下一个定理揭示了F(P,Xt)F (P,X_t)F(P,Xt​)在温和条件下是F(P,Xs)F (P, X_s)F(P,Xs​)加上一个小项的下界。
给定P,ZP, ZP,Z通过问题(1)和对应的子空间学习能量函数F(P,Si)F(P,S_i)F(P,Si​)和F(P,Ti)F(P,T_i)F(P,Ti​)学习,其中SiS_iSi​是源域的某子空间。TiT_iTi​是目标域的某子空间,可以通过系数矩阵ZiZ_iZi​用SiS_iSi​线性表示。设∣Si∣=∣Ti∣|S_i| = |T_i|∣Si​∣=∣Ti​∣,即ZiZ_iZi​是一个方阵。则F(P,Ti)F (P, T_i)F(P,Ti​)的界限为:
F(P,Ti)≥F(P,Si)∥Zi−1^∥F−2+ξ,(4)F(P,T_i)\geq F(P,S_i)\|\hat{Z_i^{-1}}\|^{-2}_F+\xi,\tag{4} F(P,Ti​)≥F(P,Si​)∥Zi−1​^​∥F−2​+ξ,(4)
其中Zi^=Zi+γI\hat{Z_i} = Z_i + \gamma\bold{I}Zi​^​=Zi​+γI是一个可逆矩阵,γI\gamma\bold{I}γI是一个小扰动项,以确保Zi^\hat{Z_i}Zi​^​是非奇异的,ξ=F(P,Ti)−F(P,Ti^)\xi= F (P,T_i)−F (P, \hat{T_i})ξ=F(P,Ti​)−F(P,Ti​^​)。Ti^\hat{T_i}Ti​^​表示被Zi^∥⋅∥F\hat{Z_i}\|\cdot\|_FZi​^​∥⋅∥F​扰动的目标域数据,表示矩阵Frobenius范数。

2.2求解优化问题

我们将问题(3)转化为以下等价问题:
argminZ,E,J,PF(P,Xs)+∥J∥∗+λ∥E∥2,1,s.t.,PTXt=PTXsZ+E,Z=J.(5)\mathop{arg\space min}\limits_{Z,E,J,P}F(P,X_s)+\|J\|_*+\lambda\|E\|_{2,1},\\ s.t.,P^TX_t=P^TX_sZ+E,Z=J.\tag {5} Z,E,J,Parg min​F(P,Xs​)+∥J∥∗​+λ∥E∥2,1​,s.t.,PTXt​=PTXs​Z+E,Z=J.(5)
如果F(P,Xs)F (P, X_s)F(P,Xs​)是凸的,那么我们通过最小化以下增广拉格朗日乘子(ALM)(ALM)(ALM)函数LLL来解决上述问题:
L=F(P,Xs)+∥J∥∗+λ∥E∥2,1+<Y1,PTXt−PTXsZ−E>+<Y2,Z−J>+μ2(∥PTXt−PTXsZ−E∥F2+∥Z−J∥F2),(6)\mathcal{L}=F(P,X_s)+\|J\|_*+\lambda\|E\|_{2,1}\\\tag{6} +<Y_1,P^TX_t-P^TX_sZ-E>+<Y_2,Z-J>\\ +\frac{\mu}{2}(\|P^TX_t-P^TX_sZ-E\|^2_F+\|Z-J\|^2_F), L=F(P,Xs​)+∥J∥∗​+λ∥E∥2,1​+<Y1​,PTXt​−PTXs​Z−E>+<Y2​,Z−J>+2μ​(∥PTXt​−PTXs​Z−E∥F2​+∥Z−J∥F2​),(6)
式中Y1、Y2Y_1、Y_2Y1​、Y2​为拉格朗日乘子,μ>0\mu > 0μ>0为惩罚参数。
我们采用不精确ALM来解决上述问题,其时间效率和有效性在算法1中概述。

2.3计算复杂度

为简单起见,我们假设XsX_sXs​和XtX_tXt​都属于m×nm \times nm×n矩阵。算法1中最耗时的部分是步骤(1)中n×nn \times nn×n矩阵的SVD计算。当样本数量nnn较大时,其计算代价变得非常高,即O(n3)O(n^3)O(n3)。
[22]中的定理4.3为解决步骤(1)中的问题提供了更好的方法,问题(5)中一次迭代的时间代价为O(mnr+nr2+r3)O(mnr + nr^2 + r^3)O(mnr+nr2+r3),其中rrr为源数据XsX_sXs​的秩。考虑正交过程和迭代过程,上述问题的计算复杂度总和为O(m2n)+O(N(mnr+nr2+r3))O(m^2n)+O(N(mnr+nr^2+r^3))O(m2n)+O(N(mnr+nr2+r3)),其中NNN为迭代次数。

三、LTSL实例

在本节中,我们展示了如何将低秩转移子空间学习应用于传统的子空间学习方法:PCA[31]、LDA[2]、LPP[16]、MFA[33]、NPE[15]、DLA[35]PCA[31]、LDA[2]、LPP[16]、MFA[33]、NPE[15]、DLA[35]PCA[31]、LDA[2]、LPP[16]、MFA[33]、NPE[15]、DLA[35]。由算法1可知,这些方法的区别在于:∇F(P,Xs)\nabla F (P, X_s)∇F(P,Xs​)。
例如,PCA的目标函数为:
minPTP=IF(P,Xs)=minPTP=ITr(−PTΣP),(7)\mathop{min}\limits_{P^TP=I}F(P,X_s)=\mathop{min}\limits_{P^TP=I}\bold{Tr}(-P^T\Sigma P),\tag{7} PTP=Imin​F(P,Xs​)=PTP=Imin​Tr(−PTΣP),(7)
其中Σ\SigmaΣ为数据协方差矩阵。通过拉格朗日乘子法,将问题(7)改写为:
minPTr(−PTΣP+(PTP−I)Λ),\mathop{min}\limits_{P}\bold{Tr}(-P^T\Sigma P+(P^TP-I)\Lambda), Pmin​Tr(−PTΣP+(PTP−I)Λ),
其中Λ\LambdaΛ为拉格朗日乘子,对应的PCAPCAPCA梯度为∇F(P,Xs)=2(−ΣP+PΛ)\nabla F (P, X_s) = 2(−\Sigma P + P\Lambda)∇F(P,Xs​)=2(−ΣP+PΛ)。在表一中,我们展示了各种各样的方法的目标函数和F(P,Xs)F (P, X_s)F(P,Xs​) 对PPP的导数。

四、实验评价

在本节中,我们将我们的方法,例如,LT−PCA,LT−LDA,LT−LPP,LT−MFA,LT−NPE和LT−DLALT-PCA, LT-LDA, LT-LPP, LT-MFA, LT-NPE和LT-DLALT−PCA,LT−LDA,LT−LPP,LT−MFA,LT−NPE和LT−DLA与传统的子空间算法,例如PCA[31],LDA[2],LPP[16],MFA[33],NPE[15],DLA[35],PCA [31], LDA [2], LPP [16], MFA [33], NPE [15], DLA[35],PCA[31],LDA[2],LPP[16],MFA[33],NPE[15],DLA[35],转移子空间学习(TSL)[30],以及耶鲁B, CMU PIE和UB kinface中的令人沮丧的简单域适应(FEDA)[10]进行比较。除FEDA采用SVM作为分类器外,其他基于子空间学习的方法均采用最近邻(nearest-neighbor, NN)作为分类器。

4.1合成数据的实验

如图4(左)所示,源域中有两类数据,目标域中有两类数据。所有数据都在三维空间中,由不同均值和协方差矩阵的高斯分布产生。源域的每个类都是密集的,有100个样本,而目标域的每个类都是稀疏的,有30个样本。显然,在源域很容易找到一个超平面来分割样本。然而,在目标域中,决策边界似乎并不明确。

在图4(中)中,我们通过提出的方法找到了一个合适的子空间,即一个一维空间,目标中的每个数据都由源域中某个类的数据线性表示。在这个空间中,由于源域中的数据是分离良好的,目标域中的数据也是可分离的,除了一些边界点。
在中间的图中,Y轴没有确切的含义,我们只是使用0和1来索引源数据和目标数据。

4.2 UB KinFace数据库

UB KinFace是第一个包含儿童及其父母在不同年龄的面部图像的数据库。目前的UB KinFace V er2.0包含400人的600张图片,可以分成200组。每个组由儿童、年轻父母和年老父母的图像组成。
亲属关系验证可以描述为:给定一对图像,确定图像中的人是否有亲属关系。本实验采用Gabor滤波器在8个方向、5个尺度上提取特征。
本实验采用五次交叉验证,即160张年轻父母和孩子的图像特征为源数据XsX_sXs​, 160张年老父母和孩子的图像特征为目标数据XtX_tXt​。
注意,我们使用特征在子女和父母之间的差异的绝对值作为亲属关系验证的输入。同一家庭两个人的差异为正样本,不同家庭两个人的差异为负样本。
当然,负样本可能比正样本多得多,在我们的配置中,我们将它们设置为160:640。其余40张老年人和儿童图像作为测试样本,正样本与负样本之比为40:40。
实验结果如表II、图4(右)、图5所示。

4.3 Yale B and CMU PIE数据库

Yale B数据库包含38个受试者的面部图像,每个受试者有64张不同光照下的图像。
CMU PIE包括68个个体,在关闭环境灯的情况下,每个个体处于21种不同的照明条件下。
在我们的实验中,只考虑正面的面部图像。我们将图像裁剪成30×3030 \times 3030×30的大小,只使用原始图像作为输入。
我们使用Yale B数据库作为源数据,CMU PIE作为目标数据,即Y2P。
注意,在图库中,每个主题只有正面自然光照的一面用作参考。
此外,这些图像是我们模型中的目标数据。
具体来说,在这个实验中,38个被试在Yale B的图片在我们的模型中都是XsX_sXs​,而CMU PIE只有68张图片是XtX_tXt​。
实验结果如表III、图6所示。

4.4讨论

选择每种方法的最佳性能,与FEDA在SVM中使用的不同惩罚参数“C”进行比较。
显然,所有基于子空间学习的方法都优于FEDA。
我们没有在Y2P上比较FEDA的原因是FEDA不能直接扩展到多类情况。
然而,我们的方法可以突破这一限制,并且在多类到多类的知识转移中也能很好地工作。

亲缘关系验证非常具有挑战性。
UB KinFace的图像来自现实世界,具有任意的变化,例如,姿势,照明,表情。
结果显示,即使是人类也不能很好地处理这个数据库,只能达到56.00%。
我们发现在设计的实验中,TSL方法的性能比传统方法差。原因是TSL对数据大小很敏感。
一方面,在目标域数据较少的情况下(我们只使用每个被试的一张图像作为图库),无法通过核密度估计(KDE)方法准确描述其分布。
另一方面,即使有足够的数据,当规模较大时,TSL也很难收敛,
在这两种情况下,提出的低秩转移子空间学习仍然工作良好。

总结

在本文中,我们提出了一个新的迁移子空间学习框架。本质上,我们利用低秩约束在低维空间中架起源和目标域的桥梁。此外,许多成熟的方法可以纳入到我们的框架中,形成它们的低秩转移版本。
在Yale B、CMU PIE和UB KinFace数据库上的大量实验结果充分验证了我们的方法在解决跨数据库学习问题上的有效性。

References

  1. 《Low-Rank Transfer Subspace Learning》论文学习
    2012 IEEE 12th International Conference on Data Mining

迁移学习——Low-Rank Transfer Subspace Learning相关推荐

  1. 迁移学习简介(transfer learning)

    迁移学习简介(transfer learning) https://blog.csdn.net/qq_33414271/article/details/78756366 一.什么是迁移学习? 迁移学习 ...

  2. matlab2019a中迁移学习快速入门(Deep Learning Toolbox系列篇4)

    此示例说明如何使用迁移学习对预训练的卷积神经网络 AlexNet 进行重新训练,以对新图像集进行分类.尝试此示例,了解如何在 MATLAB® 中轻松开始深度学习. 深度学习应用中常常用到迁移学习.您可 ...

  3. 迁移学习概述(Transfer Learning)

    迁移学习概述(Transfer Learning) 迁移学习概述 背景 定义及分类 关键点 基于实例的迁移 基于特征的迁移 特征选择 特征映射 基于共享参数的迁移 深度学习和迁移学习结合 Pre-tr ...

  4. 《A Survey on Transfer Learning》迁移学习研究综述 翻译

    迁移学习研究综述 Sinno Jialin Pan and Qiang Yang,Fellow, IEEE 摘要:   在许多机器学习和数据挖掘算法中,一个重要的假设就是目前的训练数据和将来的训练数据 ...

  5. 读懂深度迁移学习,看这文就够了 | 赠书

    百度前首席科学家.斯坦福大学副教授吴恩达(Andrew Ng)曾经说过:迁移学习将是继监督学习之后的下一个促使机器学习成功商业化的驱动力. 本文选自<深度学习500问:AI工程师面试宝典> ...

  6. JMC | 药物发现中的迁移学习

    导读 药物发现工作中可用于训练计算模型的数据集通常很少.标记数据的稀疏可用性是人工智能辅助药物发现的主要障碍.解决该问题的一种方法是开发可以处理相对异构和稀缺数据的算法.迁移学习是一种机器学习方法,可 ...

  7. 迁移学习与跨域推荐,以及解决跨域推荐的方法

    本文主要是详细介绍一下跨域推荐,包含但不局限于以下几个部分: 迁移学习 跨域推荐 跨域推荐可以怎么做 冷启动的其他一些方法 可以参考的论文有哪些 1. 迁移学习 以下内容参考[推荐系统中的多任务学习- ...

  8. 联邦学习 OR 迁移学习?No,我们需要联邦迁移学习

    2020-11-18 13:40:43 机器之心分析师网络 作者:仵冀颖 编辑:H4O 在这篇文章中,作者通过 4 篇论文详细介绍了联邦学习中的联邦迁移学习问题,并探讨了向经典联邦学习中引入迁移学习的 ...

  9. 模型独立学习:多任务学习与迁移学习

    导读:机器学习的学习方式包括监督学习和无监督学习等.针对一个给定的任务,首先要准备一定规模的训练数据,这些训练数据需要和真实数据的分布一致,然后设定一个目标函数和优化方法,在训练数据上学习一个模型.此 ...

最新文章

  1. CVPR 2020 论文开源项目一页看尽,附代码论文
  2. centos7下配置golang1.7.1环境(自己做测试了)
  3. 设计模式五: 原型模式(Prototype)
  4. excel柱状图堆叠图显示总和_Excel堆积柱形图同时显示合计值和构成值的方法介绍...
  5. 服务器系统文档分类,服务器操作系统及分类
  6. 台积电9月14日起不向华为供货;315曝光50多款App涉嫌内置SDK窃取隐私;Micronaut 1.3.7发布 | 极客头条...
  7. linux_network
  8. Linux下修改mysql密码以及忘记密码重置
  9. 数值计算方法Mathematica基本使用
  10. Nero Burning ROM 11.0.10500附序列号
  11. win10:无法加载文件 C:\Users\LENOVO\AppData\Roaming\npm\babel-node.ps1,因为在此 系统上禁止运行脚本
  12. 外汇天眼:新手如何模拟炒外汇?模拟炒外汇的一点心得分享
  13. 阿里云使用经验分享——小投入大收益
  14. C#VS2019中ReportViewer控件和报表设计器 RDLC使用方法总结
  15. 集成树模型系列之一——随机森林
  16. 【机器学习】花卉识别01
  17. css实现电子数字字体
  18. 50个CSS编辑工具
  19. QT中出现程序异常结束,The process was ended forcefully的解决方案
  20. 如何在Linux下运行Python脚本

热门文章

  1. 游戏热血江湖 满线自动查询器制作游戏分析脱壳与查询器源码分享
  2. 移动端开发 套餐列表动态展示(多表联查) 短信发送
  3. Python爬取全民k歌
  4. 香港中文大学(深圳)张大鹏院士团队招收计算机视觉博士/RA
  5. ❤️太牛了,用python 居然可以生成 情话、床头诗、对联❤️
  6. 尤鑫栋:外汇黄金投资举债80多万,什么导致亏损近百万的元凶?
  7. 在Docker中搭建Oracle数据库,并使用PL/SQL Developer链接
  8. 服务器怎么接收gsm的信息,gsm短信服务器
  9. CNN的反向传播算法 详细易懂
  10. 应用安全加上游戏盾是最好的组合