《Adapting Component Analysis》文章学习
2012 IEEE 12th International Conference on Data Mining

文章目录

  • 摘要
  • 一、介绍
    • 符号
  • 二、方法
    • 1.最小化两个概率分布之间的距离
    • 2.保存数据的重要特征
    • 3.调整成分分析
      • 分类任务内核KXK_XKX的选择:
  • 三、实验结果
    • 3.1响应变量的内核
    • 3.2玩具分类示例
    • 3.3真实世界数据集
      • 3.3.1MNIST手写数字
      • 3.3.2新闻组数据集
      • 3.3.3乳腺癌数据集
  • 总结
  • References

摘要

只有当训练数据是测试数据的适当代表时,预测模型才能令人满意地执行。即训练数据和测试数据来自相同的基本概率分布。然而,由于各种原因,该假设在许多应用中可能不正确。我们提出了一种基于核分布嵌入希尔伯特-施密特独立准则(HSIC) 的方法来解决这个问题。所提出的方法探索了新特征空间中数据的新表示形式,具有两个特性:

  1. 在新的特征空间中,训练和测试数据集的分布尽可能接近
  2. 数据的重要结构信息得以保存。

我们的方法有一个封闭形式的解决方案,实验结果表明,它在实践中效果良好。
Keywords:domain adaptation; kernel embedding; Hilbert-Schmidt independence criterion;


一、介绍

在机器学习领域中,训练模型用来预测测试数据集的响应变量。训练过程基于最小化损失函数,只有当训练数据集是测试数据的合适代表,学习才能达到目的。
在传统预测模型中,假设训练数据集和测试数据集都是同一分布的,然而,实际上因为各种原因两个数据集的分布是不同的。
机器学习中的领域自适应问题一直是人们关注的焦点,人们进行的研究有:

  1. 协变量移位
  2. 类不平衡
  3. 半监督学习
  4. 多任务学习
  5. 样本选择偏差

但所有这些方法都主要通过两种方法来解决问题:

  1. 重新加权源实例
  2. 改变表示空间

文献中提出的方法有一些共同的缺点:

  1. 在高维数据集中,底层分布的近似使得问题难以解决
  2. 探索不一定是线性的数据的新表示,通常使解决问题的计算成本很高
  3. 一些领域适应技术只适用于有限的预测模型。

我们提出的方法能解决以上问题,该算法在新的特征空间中寻找数据的新表示,使嵌入的训练数据集和测试数据集的潜在概率分布尽可能接近,并保留数据的重要结构信息,以供进一步的预测分析。这两个约束导致了一个具有封闭解的单一优化问题

符号

XXXϕ\phiϕ表示随机变量(即原特征空间和新特征空间中的输入变量),YYY表示对应的响应变量(即类标签等输出变量)。P(X,Y)P (X, Y)P(X,Y)XXXYYY的联合概率分布,Ptr(X)P_{tr}(X)Ptr(X)Pts(X)P_{ts}(X)Pts(X)表示训练和测试数据集中XXXYYY的真实边际概率分布。同样,我们用Ptr(Y∣X)P_{tr}(Y|X)Ptr(YX)Pts(Y∣X)P_{ts}(Y|X)Pts(YX)来表示这两个域的真实条件概率分布。
粗体小写字母,x\boldsymbol{x}x是d维的样本。XtrX_{tr}XtrXtsX_{ts}Xts分别表示大小为d×ntrd\times n_{tr}d×ntrd×ntsd\times n_{ts}d×nts的训练数据集和测试数据集样本的矩阵。ntrn_{tr}ntrntsn_{ts}nts分别为训练数据集和测试数据集中的样本数。Xd×nX_{d\times n}Xd×n = [XtrXts[X_{tr}\space X_{ts}[XtrXts]是一个n,dn, dn,d维样本的矩阵,其中n=ntr+ntsn = n_{tr} + n_{ts}n=ntr+ntsΦ\PhiΦ是新特性空间中数据的新表示,其中Ψ:X→Φ\Psi:X\rightarrow\PhiΨ:XΦ被定义为Φ\PhiΦ,这样Φ:=[ΦtrΦts]\Phi: = [\Phi_{tr}\Phi_{ts}]Φ:=[ΦtrΦts]Φtr\Phi_{tr}ΦtrΦts\Phi_{ts}Φts表示新表示空间中嵌入的训练和测试数据集。

二、方法

区域自适应问题的主要挑战是训练数据集和测试数据集的联合概率分布的不相似性。分解为
ptr(X,Y)=ptr(X)ptr(Y∣X)pts(X,Y)=pts(X)pts(Y∣X)p_{tr}(X,Y)=p_{tr}(X)p_{tr}(Y|X)\\p_{ts}(X,Y)=p_{ts}(X)p_{ts}(Y|X)ptr(X,Y)=ptr(X)ptr(YX)pts(X,Y)=pts(X)pts(YX)
假设为:训练数据集和测试数据集的联合概率分布之间的所有差异,都是由于它们的边缘概率分布之间的差异所造成的。这里存在一种新的数据表示Φ\PhiΦ,使得嵌入训练数据集和测试数据集的边缘概率分布相似,这意味着ptr(Φ)≈pts(Φ)p_{tr}(\Phi)\approx p_{ts}(\Phi)ptr(Φ)pts(Φ)

1.最小化两个概率分布之间的距离

最大平均偏差(MMD)是数据集分布之间距离的非参数度量。
MMD⁡(P^tr,P^ts)=∥μXtr[P^tr]−μXts[P^ts]∥H=sup⁡g∈F,∥g∥H≤1(EXtr∼P^trg(xtr)−EXts∼P^tsg(xtr))\begin{gathered} \operatorname{MMD}\left(\hat{P}_{t r}, \hat{P}_{t s}\right)=\left\|\mu_{X_{t r}}\left[\hat{P}_{t r}\right]-\mu_{X_{t s}}\left[\hat{P}_{t s}\right]\right\|_{\mathcal{H}}= \\ \sup _{g \in \mathcal{F},\|g\|_{\mathcal{H}} \leq 1}\left(\mathbf{E}_{X_{t r} \sim \hat{P}_{t r}} g\left(\mathbf{x}_{t r}\right)-\mathbf{E}_{X_{t s} \sim \hat{P}_{t s}} g\left(\mathbf{x}_{t r}\right)\right) \end{gathered} MMD(P^tr,P^ts)=μXtr[P^tr]μXts[P^ts]H=gF,gH1sup(EXtrP^trg(xtr)EXtsP^tsg(xtr))
式中EX∼P[g(x)]\mathbf{E}_{\mathbf X \sim P} [g(\mathbf x)]EXP[g(x)]是函数g(x)g(x)g(x)的期望值(样本来自概率分布PPP),MMD可以通过经验估计为
∥μXtr[P^tr]−μXts[P^ts]∥H2≈tr(HLMHLϕ)\begin{gathered} \left\|\mu_{X_{t r}}\left[\hat{P}_{t r}\right]-\mu_{X_{t s}}\left[\hat{P}_{t s}\right]\right\|_{\mathcal{H}}^2\approx \mathcal{tr}\left(HL_MHL_\phi\right) \end{gathered} μXtr[P^tr]μXts[P^ts]H2tr(HLMHLϕ)
其中LΦL_\PhiLΦΦ\PhiΦ上的一个内核,假设是ΦTΦ\Phi^T\PhiΦTΦLML_MLM是预定义的内核。所以目标函数是:
minimizetr(HLMHLϕ)=tr(HLMHΦTΦ)\begin{gathered} \mathop{minimize} \mathcal{tr}\left(HL_MHL_\phi\right)=\mathcal{tr}\left(HL_MH\Phi^T\Phi\right) \end{gathered} minimizetr(HLMHLϕ)=tr(HLMHΦTΦ)
一个简单的解决方法是,将每个概率分布的所有样本折叠到一个点,然后让这两个点彼此靠近。但在将来进行预测分析时,这种新的表示方法会丢失数据中的关键信息,因此,新表示法还应保留任何后期分析所需的重要数据特征。

2.保存数据的重要特征

原始数据及其新表示的依赖性可以作为一种衡量方法,显示预测响应变量的结构和重要特征如何被保留的。HSIC被用作是两个随机变量相关性的量化度量。两个随机变量之间的相关性可以通过概率分布之间的距离来衡量,该度量根据经验估计为:
HSIC(X,Φ)=(n−1)−2tr(HKXHLΦ)\begin{gathered} HSIC\left(X,\Phi\right)=\left(n-1\right)^{-2}\mathcal{tr}\left(HK_XHL_\Phi\right) \end{gathered} HSIC(X,Φ)=(n1)2tr(HKXHLΦ)
其中LΦL_\PhiLΦΦ\PhiΦ上的一个内核,假设是ΦTΦ\Phi^T\PhiΦTΦ,而KXK_XKX是原始数据上的一个有效内核。选择内核意味着需要保留的结构和重要信息。补充目标函数是:
maximizetr(HKXHLϕ)=tr(HLMHΦTΦ)\begin{gathered} \mathop{maximize}\mathcal{tr}\left(HK_XHL_\phi\right)=\mathcal{tr}\left(HL_MH\Phi^T\Phi\right) \end{gathered} maximizetr(HKXHLϕ)=tr(HLMHΦTΦ)

3.调整成分分析

P(Φtr)P\left(\Phi_{tr}\right)P(Φtr)P(Φts)P\left(\Phi_{ts}\right)P(Φts)之间的距离最小化,并保留XXX的重要特征,建立一个求解域适应问题的单一优化问题,其解决方案是将数据嵌入到一个新的特征空间中。目标函数定义为:
maximizetr(HKXHLϕ)tr(HLMHLϕ)\begin{gathered} \mathop{maximize}\frac{\mathcal{tr}\left(HK_XHL_\phi\right)}{\mathcal{tr}\left(HL_MHL_\phi\right)} \end{gathered} maximizetr(HLMHLϕ)tr(HKXHLϕ)
其中分母是训练数据集的概率分布与测试数据集的概率分布之间的距离的度量,分子是估计原始空间中样本与其对应表示之间相关性的度量。改写为:
maximizetr(HKXHΦTΦ)tr(HLMHΦTΦ)=tr(ΦHKXHΦT)tr(ΦHLMHΦT)\begin{gathered} \mathop{maximize}\frac{\mathcal{tr}\left(HK_XH\Phi^T\Phi\right)}{\mathcal{tr}\left(HL_MH\Phi^T\Phi\right)}= \frac{\mathcal{tr}\left(\Phi HK_XH\Phi^T\right)}{\mathcal{tr}\left(\Phi HL_MH\Phi^T\right)} \end{gathered} maximizetr(HLMHΦTΦ)tr(HKXHΦTΦ)=tr(ΦHLMHΦT)tr(ΦHKXHΦT)
目标函数对于Φ\PhiΦ的任意比例是不变的,可以选择Φ\PhiΦ,使分母等于1。
maximizetr(ΦHKXHΦT)subjecttotr(ΦHLMHΦT)=1\begin{gathered} \mathop{maximize}\mathcal{tr}\left(\Phi HK_XH\Phi^T\right)\\ \mathop{subject\space to}\mathcal{tr}\left(\Phi HL_MH\Phi^T\right)=1 \end{gathered} maximizetr(ΦHKXHΦT)subjecttotr(ΦHLMHΦT)=1
因为这个优化问题有一个封闭形式的解,所以它可以直接找到最优Φ\PhiΦ。这对应于一个特征向量估计问题,ΦT\Phi^TΦTKX−1LMK^{−1}_XL_MKX1LM的特征向量矩阵。所选特征向量d′≤dd'\leq ddd为新特征空间中数据的维数。
提出的域适应算法称为自适应分量分析(adaptive Component Analysis, ACA),在训练集和测试集的基础上,利用训练集的响应变量来增强算法的性能。它们被封装在内核KXK_XKX中。一旦找到合适的表示,我们可以对新特征空间中的样本应用进一步的预测算法

分类任务内核KXK_XKX的选择:

利用训练数据集的响应变量是有价值的信息,可以提高算法的效率。
使用响应变量的信息有利于找到更适合于接下来的预测分析的数据的新表示形式。
根据线性核函数重写KXK_XKX,我们有:
KX=[XtrTXtsT][XtrXts]=[KXtrXtrKXtrXtsKXtsXtrKXtsXts]\begin{gathered} K_X= \begin{bmatrix} X_{tr}^T \\ X_{ts}^T \end{bmatrix} \begin{bmatrix} X_{tr} & X_{ts} \end{bmatrix}= \begin{bmatrix} K_{X_{tr}X_{tr}} & K_{X_{tr}X_{ts}} \\ K_{X_{ts}X_{tr}} & K_{X_{ts}X_{ts}} \end{bmatrix} \end{gathered} KX=[XtrTXtsT][XtrXts]=[KXtrXtrKXtsXtrKXtrXtsKXtsXts]
KXtrXtrK_{X_{tr}X_{tr}}KXtrXtrKXtsXtsK_{X_{ts}X_{ts}}KXtsXts分别收集训练和测试数据集的结构信息,这两个子矩阵对于预测模型的学习或训练是很重要的,它们应该被保存。
矩阵KXK_XKX可以更改为K^X\hat{K}_XK^X,其中K^X\hat{K}_XK^X是基于数据和已知的响应变量构建的。
KXtsXtrK_{X_{ts}X_{tr}}KXtsXtr最初表示训练数据集和测试数据集样本的相似度。
因此,将KXtsXtrK_{X_{ts}X_{tr}}KXtsXtrKXtrXtsK_{X_{tr}X_{ts}}KXtrXts两个子矩阵分别用K^XtsXtr=KXtsXtrKYtr\hat{K}_{X_{ts}X_{tr}}=K_{X_{ts}X_{tr}}K_{Y_{tr}}K^XtsXtr=KXtsXtrKYtrK^XtrXts=KYtrKXtrXts\hat{K}_{X_{tr}X_{ts}}=K_{Y_{tr}}K_{X_{tr}X_{ts}}K^XtrXts=KYtrKXtrXts替换,其中KYtrK_{Y_{tr}}KYtr是训练数据集XtrX_{tr}Xtr响应变量的核,表示训练数据集样本标签之间的相似性,其主要作用是均匀相似样本之间的差异
根据该公式,将训练数据集的样本xix_ixi改为其相似样本的加权均值。权重与样本xix_ixixjx_jxj的相似度成正比。这使得相似样本的变化更小。
K^X=[KXtrXtrK^XtrXtsK^XtsXtrKXtsXts]\begin{gathered} \hat{K}_X= \begin{bmatrix} K_{X_{tr}X_{tr}} & \hat{K}_{X_{tr}X_{ts}} \\ \hat{K}_{X_{ts}X_{tr}} & K_{X_{ts}X_{ts}} \end{bmatrix} \end{gathered} K^X=[KXtrXtrK^XtsXtrK^XtrXtsKXtsXts]

三、实验结果

本文将该方法与MMDE和CODA进行了比较。

3.1响应变量的内核

那么在ACA中内核KXK_XKX已经修改为K^X\hat{K}_XK^X
将核KYtr与KXtsXtr和KXtrXtsK_{Y_tr}与K_{X_{ts}X_{tr}}和K_{X_{tr}X_{ts}}KYtrKXtsXtrKXtrXts相乘,基本上就是将训练数据集的每个样本用其对应的相似样本的加权均值替换,使得数据沿相似样本的变化较小。

3.2玩具分类示例

训练数据集和测试数据集由100和200个样本组成,它们分别来自于多元正态分布,均值分别为μtr=(−1,3)μ_{tr} =(−1,3)μtr=(1,3)μts=(2,1)μ_{ts} =(2,1)μts=(2,1),它们的协方差矩阵相似,σ=[20.50.52]\sigma=\begin{bmatrix}2&0.5\\0.5&2\end{bmatrix}σ=[20.50.52]
训练数据集和测试数据集分为两类。如果每个集合的第一个特征值小于其对应的均值,则该集合的样本属于第一类,如果其第一个特征值大于其对应的均值,则该集合的样本属于第二类。

图1-a展示了原始特征空间中的数据
图1-b为采用ACA算法的嵌入数据
◦和×是两类的训练数据集
◊\Diamond和*是测试数据集的两类
可以看出,嵌入的训练数据集分布与测试数据集分布之间的距离减小了。
因此,新的训练数据样本能更好地代表测试数据集进行分类。
利用1-NN对原始数据进行无变化分类,并以错误率为基线。
ACA算法在分类过程的错误率方面提供了显著的改进。

3.3真实世界数据集

3.3.1MNIST手写数字

第一个数据集是图像的集合,是MNIST手写数字。
域适应问题的定义是:分类器在训练集的两位数字上训练,而在测试集的两位不同数字上测试。
表2中所有数据集的训练样本为300个,测试样本为500个
通过本文的所有实验,将ACA中输出数据的维数设为2。
不同算法的错误率如表2所示:

Dig-1在二维空间中的新表示,它的分类效果明显更好:

3.3.2新闻组数据集

第二个数据库是20新闻组数据集,由大约20,000个新闻组文本文档组成,这些文档根据相似的主题被分为四个组。
生成3个数据集,其中“Newsgroup-1”数据集由组1和组2中随机抽取的1000篇帖子作为训练数据集,组3和组4中随机抽取的2000篇帖子作为测试数据集。
错误率是10次试验的平均错误率,每次试验的样本都是从原始数据集中随机选择的。
ACA优于其他方法,除了在第二个数据库是Newsgroup-2。
Wine, German Credit, India diabetes and Ionosphere是UCI存档的数据集,它们的“偏置比例”在偏置过程中被定义为80%。

3.3.3乳腺癌数据集

数据包括699例良性(阳性标签)和恶性(阴性标签)样本。
这是一个基于9个初始特征的二元分类问题。
在偏置比分别为70%、80%、90%的情况下重复实验。

另一个显示方法效率的参数是归一化改进(NI),它量化了算法a相对于算法B的性能有多好。该参数估计为:
NI=∣ErrorA−ErrorB∣ErrorANI=\frac {\lvert Error_A-Error_B\rvert}{Error_A} NI=ErrorAErrorAErrorB
ACA也可以被认为是一种降维技术


总结

我们提出了一种域适应算法,该算法将数据样本转移到一个新的特征空间。探索新的数据表示方法,使训练数据集和测试数据集在新的特征空间中尽可能接近,同时保留数据的重要结构信息。为了解决这个问题并满足上述性质,我们定义了一个快速优化问题,其解已知为给定矩阵的特征向量。实验结果表明,该算法在实际应用中性能良好,在低维情况下具有良好的效率,可作为一种降维技术。

References

  1. Adapting Component Analysis

迁移学习笔记——Adapting Component Analysis相关推荐

  1. 迁移学习笔记3: TCA, Finetune, 与Triplet Network(元学习)

    主要想讲的内容有: TCA, Finetune, Triplet Network 迁移学习与元学习有哪几类方法 想讲的目标(但不一定完全能写完, 下一次笔记补充): 分别属于什么方法, 处于什么位置, ...

  2. 迁移学习笔记2:类别总结

    什么是迁移学习 迁移学习定义 利用任务.数据.或模型之间的相似性,将在旧领域学习过的模型,应用于新领域的一种学习过程. 相似性的这几个方面详细说 任务的相似性是在选定迁移源和目标时候确定的. 而其他的 ...

  3. 可见光迁移——学习笔记

    1 模型假设 1.1 物理一致性 可见光跟SAR可以看作是两种不同的传感器,两种传感器类型分别是物理场景的低维映射: 不过它们在本质上都是对物理场景的信号采样: 所以在物理上是具有一致性的: 2 迁移 ...

  4. 迁移学习笔记4:ACML-Sinno Jialin Pan

    潘嘉林Sinno (Sinno Jialin Pan)在会议ACML最新一届上做了一个讲座 OAMLS -- Transfer Learning -- Sinno Jialin Pan The 13t ...

  5. cs224w(图机器学习)2021冬季课程学习笔记4 Link Analysis: PageRank (Graph as Matrix)

    诸神缄默不语-个人CSDN博文目录 cs224w(图机器学习)2021冬季课程学习笔记集合 文章目录 1. Graph as Matrix 2. PageRank / the Google Algor ...

  6. EF code First数据迁移学习笔记

    准备工作 1.新建一个控制台项目, 在"程序包管理控制台"执行 Install-package EntityFramework  //安装EF环境 2.在项目下新建类(Paper) ...

  7. 人脸属性迁移学习笔记

    paddle实现的,不能下载预训练. https://github.com/PaddlePaddle/models/tree/develop/PaddleCV/gan 预训练网站不能访问. https ...

  8. python学习笔记(Data Analysis)

    Python for Data Analysis numpy基础 嗯 调整了一些顺序 1 ndarray(n维数组) 导入数据.基本运算和数组生成 import numpy as np #矢量化 将数 ...

  9. 有限元ansys/lsdyna学习笔记-组件component与组元part_02

    详细链接:https://wk.baidu.com/view/d24db6db856a561252d36f99?ivk_sa=1023194j

最新文章

  1. Pbsim模拟器的使用
  2. win7右键新建文件夹不见了
  3. 转载:写给计算机专业的朋友们
  4. 小学生python-现在连小学生都会Python了吗?
  5. [我给Unity官方视频教程做中文字幕]beginner Graphics – Lessons系列之材质了解Materials...
  6. 用黄金圈思维来思考测试
  7. CentOS FTP安装及配置
  8. Hibernate day01
  9. 特斯拉花式作妖:停售Model S标准续航版 国内官网已下架
  10. 运筹学在不同环境下的决策 -- 学习记录
  11. jsp 判断时间大小
  12. 从幼苗长成大树 中美两国GIS软件技术已并驾齐驱
  13. python之sklearn学习笔记
  14. GB/T18655-2010标准下的动力电池系统及其BMS电磁EMC测试
  15. 内存泄漏问题该如何解决-面试学习笔记
  16. element date-picker range类型时间选择器 限制选中前后7天的时间的方法
  17. myeclipes10.7+maven+myBatis+spring+springMvc
  18. java反射和反编译
  19. C语言规定 定义符号常量时必须用大写字母,C语言规定,定义符号常量时必须用大写字母()...
  20. SpringBoot 出现 Content type ‘application/x-www-form-urlencoded;charset=UTF-8‘ not supported

热门文章

  1. console的方法
  2. 如何规划UI图标图集
  3. Delegation 委托
  4. Linux查看进程ps命令 使用详细教程
  5. 餐饮类小程序开发有哪些优势和功能
  6. 《类和对象》-析构函数
  7. 微信公众平台开发JAVA(四)公众号进行视频发送
  8. 中国自动化行业发展和现状
  9. ULN2003型达林顿管
  10. 技术转移、科技成果转移与科技成果转化是什么关系?