论文链接
论文来源:AAAI
本文重新整理至知乎专栏

  • Abstract
  • Introduction
  • Unsupervised Personalized Feature Selection Framework - UPFS
  • Optimization Algorithm for UPFS
    • Update Global Feature Weight WW
    • Update Local Feature Weight UU
    • Update Pseudo Class Labels FF
  • Experiments
    • Experimental Settings
    • Performance Evaluation
    • Parameter Study
  • Conclusions and Future Work

Abstract

背景:特征选择在处理高维数据的学习任务如:分类、聚类和异常检测等方面是有效的。

动机:绝大多数现有的特征选择方法都假设所有实例都共享一些共享特性子集中的共同模式。然而,在许多数据实例显示高度个性化的领域中,这种假设并不一定是正确的。例如,在医学领域,我们需要捕捉患者的异质性,以进行个性化的预测建模,这可以通过实例特定的特性的子集来描述。

方法:在此基础上,提出了一种新的个性化特征选择问题。特别是在无监督的情况下,我们在实践中很难获得标签信息。具体地说,我们提出了一种新的无监督的个性化特征选择框架UPFS,通过对每个实例进行定制的所有实例和实例特定的特性来寻找一些共享特性。我们将问题转化为一个有原则的优化框架,并提供了一个有效的算法来解决它。实际数据集的实验结果验证了所提出的UPFS框架的有效性。

Introduction

目前提出的大多数基于稀疏学习的特征选择方法,绝大部分为所有数据实例构建了一个单一的全局模型(即特征权重)。尽管在高预测准确性(分类或聚类)方面取得了成功,但这种全局模型不可避免地忽略每个数据实例的个性或个性。在很多情况下,实例可能是非常特殊的。例如,用户在社交媒体的发帖行为显着地不同。基于他们的个性和兴趣,他们经常使用的词语和句子是相当多样化的,具有不同的社交焦点。虽然重要的是个性化的特征,但是不同的事例或多或少具有一些共同性。例如,在医学预测建模中,尽管事实上患者的健康状况可能是不同的,但他们可能会有一定的特定疾病的共同症状。因此,通过在所有数据实例中找出一些共享特征来利用这些常见模式进行学习也至关重要。

受上述观察的启发,我们建议以无监督的方式为每个实例进行个性化的特征选择。具体而言,我们希望在查找共享特征的子集和某些特定于实例的特征时,定制自定义选择过程。图1显示了提出的无监督个性化特征选择的实例。

本文主要解决两个问题:

  • 如何对所有实例的共同模式进行模型化,并对每个特定数据实例的个性化模式进行特征选择。
  • 当标签信息不可用时如何找到共享特征和实例特征。

为了回答这两个研究问题,提出了一个无监督的个性化特征选择框架UPFS。这项工作的主要贡献总结如下:

  • 正式定义了无监督个性化特征选择的问题。
  • 我们提出一个原则性的方法,通过发现共同的特征来捕捉共同的和个性化的模式; 为每个实例定制的判别特征。
  • 我们提出了一个有效的交替算法来解决UPFS框架的优化问题。
  • 我们验证UPFS框架在不同类型的实际数据集上的有效性。

Unsupervised Personalized Feature Selection Framework - UPFS

相关定义:

  • XX:为无标签数据集,其中每个实例Xi∈RdX_i \in \mathbb R^d在一个dd的特征空间。
  • nn个不同的实例来自cc个不同的类,这里假设每个实例只属于一个类。
  • F∈{0,1}n∗cF \in \{0,1\}^{n*c}:为one-hot 类矩阵,其中当XiX_i属于类jj类时,Fi,j=1F_{i,j} = 1,否则Fi,j=0F_{i,j} = 0。

寻求能区分不同类实例的共享特征(shared features)的目标函数

这是一个稀疏正则化项的最小二乘分类模型,其中W∈Rd∗cW \in \mathbb R ^{d*c}是一个全局特征权重,α\alpha去控制全局特征权重WW的稀疏度,在WW中添加一个范式惩罚项是为了在不同类中实现联合特征的稀疏性。

以上的表述假设特征权重对于所有的实例是一致(consistent)的,但是在很多情况下,不同数据实例的特征重要性可能会有很大的不同。 因此,定制每个实例的特征选择以查找特定于实例的特征子集会更具吸引力。 为此,我们设置全局特征权重和局部特征权重来为每个实例执行伪标签预测,从而产生以下公式:

其中Ui∈Rd∗cU^i \in \mathbb R ^{d*c}是实例XiX_i局部特征权重,α\alpha去控制全局特征权重WW的稀疏度,在WW中添加一个范式惩罚项是为了在不同类中实现联合特征的稀疏性。

为了找到每个实例判别特征的一个子集,实现局部特征权重UiU^i的特征稀疏性,即期望通过cc个伪类标签的联合特征稀疏性。 为此,我们将这个问题作为一个排他性的套索问题。 具体而言,我们将每个局部特征权重UiU^i看作一个组。 当我们试图找到针对每个实例定制的区分性特征时,我们鼓励每个组内的竞争,但是不鼓励组间竞争。 通过这种方式,没有一个组织会主导其他组织,这使我们能够找到每个实例的区别性特征。

在数学上,我们通过cc个伪标签在每个UiU^i上添加l2,1l_{2,1} 范式进行联合特征稀疏化。 之后,我们在组间一级引入一个非稀疏性的l2l_{2}。 目标函数如下:

上述公式使我们能够执行无监督的个性化特征选择,以获得所有实例的多个共享特征以及特定于实例的特征。 然而,建立一个个性化的模型在实例中的计算耗费很大。另外,我们不应该把一个实例放在一个固定的特征权重UiU^i上,这样模型的学习过程很容易过拟合且泛化能力较差

为了缓解这个关键问题,我们强迫实例向邻居借力,学习局部特征权重。 特别是,我们首先构建输入数据实例的最近邻亲和度图来实现局部几何结构。 最近邻亲和度图S∈Rn×nS∈\mathbb R^{n×n}的创建过程如下:

其中Np(Xi)\mathcal N_p(X_i)是实例XiX_i的kk近邻邻居集合,σ\sigma是个预定义参数。

在此基础上,我们强迫连接的数据实例通过网络lasso 惩罚来相互借鉴学习本地化特征权重:

式(5)使得如果UiU^i和UjU^j有高度的相似性那么他们就相似。因此,它可以极大地减少个性化特征选择的模型参数的数量,也可以减轻过度拟合问题。

此外,根据光谱理论,伪类标签的理性选择应该保留数据的局部几何结构,使得其他原始特征空间中也应该具有相同的类别标签。 由于数据局部几何结构已经通过方程(4)中定义的亲和度图来建模。我们使伪类标签F在亲和度图S上平滑,得到下面的项:

综上,得到无监督个性化特征选择的目标函数如下:

其中,U=[U1;...;Un]U = [U^1;...;U^n]是所有局部特征权重的连接;β\beta,γ\gamma是两个正则化参数;具体来说,β\beta控制在什么程度上可以借鉴邻居学习本土化特征的权重; γ\gamma控制着伪标签如何保持数据的局部结构。由于离散约束,提出了整体规划问题,因此难以求解上述目标函数,我们放宽了正交条件的约束:

再重写如下:

这里引入参数θ来保证正交条件满足。 通常,我们将其设置为恒定大数(例如10810^8)以确保正交条件满足。

求解上述目标函数以获得模型参数W,UW,U和FF之后,我们可以执行伪类标签预测。 对于每个实例xix_i,分类器是全局特征权重WW和局部特征权重UiU^i的联合。 特别地,对于每个数据实例xix_i,我们将第jj个特征的特征分数定义为∥Kj∗∥22\parallel K_{j *} \parallel_2^2,其中K=W+UiK = W + U^i。 在计算所有特征分数之后,我们按降序对它们进行排序,并返回排名前mm位的特征,其中mm是我们想要选择的特征的数量。

Optimization Algorithm for UPFS

目标函数式(9)同时包含三个变量U,W和UU,W和U时不是一个凸函数。但如果我们定义两个模型参数并更新另一个模型参数,则它是一个凸优化问题。 因此,我们提出通过交替优化算法来解决UPFS的优化问题,直到方程 (9)收敛。

Update Global Feature Weight WW

固定U,FU,F更新WW。

Y=[diag(X∗1,diag(X∗2,...,diag(X∗N]Y = [diag(X_{*1}, diag(X_{*2},..., diag(X_{*N}],其中diag(.)diag(.)表示向量对角化矩阵的对角化。

去除与WW无关的变量,目标函数重写如下:

可以看出该函数是个凸函数,于是我们可以通过求关于WW的导并令其等于0去获得最优解,即:

Update Local Feature Weight UU

固定W,FW,F更新UU。

去除与UU无关的变量,目标函数重写如下:

通过一系列的求解得到UU的最后表达为:

其中,E,GE,G为:

Update Pseudo Class Labels FF

固定W,UW,U更新FF。

去除与FF无关的变量,目标函数重写如下:

计算后FF的迭代方程如下:

其中,H=XW+YUH = XW+YU。

最后UPFS的算法如下:

Experiments

Experimental Settings

数据集

评估参数

  1. Clustering Accuracy (ACC)
  2. Normalized Mutual Information (NMI)

实验算法: k-means clustering algorithm

Performance Evaluation

对比算法:

近邻数k=5k=5。

实验结果:

实验总结:

  • 特征选择在大多数情况下是必要的。如表中所示,当我们使用特征选择算法来发现识别特征时,它可以提高聚类性能。
  • 建议的UPFS框架在许多情况下胜过基准方法,因此其有效性得到了验证。我们还在UPFS和其他方法之间进行了双样本单尾t<script type="math/tex" id="MathJax-Element-73">t</script>检验,结果显示UPFS显着更好,具有0.05的显着性水平。这种改进可以归结为:(1)实例的个体差异很大,同时实例的全局特征不能充分体现实例的个性; (2)实例或多或少具有共同点,因此,它可以作为伪标签预测的全局特征权重和局部特征权重的函数接口。
  • 建议的UPFS在文本数据和生物数据方面比图像数据更好。原因在于,在这两个领域中,实例更有可能表现出高度的个性化,这可以通过一些个性化特征来表征。
  • NDFS是UPFS的一个特殊情况,消除了专有组套索术语和网络套索术语。 NDFS只是单一的全局特征权重,相对于NDFS而言UPFS的改进表明,它确实有助于发现实例的特定特征。

Parameter Study

我们研究了α,β和γ参数对UPFS性能的影响。 其中α控制着特征的稀疏性,β控制着什么程度的实例可以借助强度从邻居学习本地化特征权重,γ控制伪类标签如何保持局部几何结构的数据。 为了研究它的变化如何影响特征选择的性能,我们每次都选择两个参数,在{0.001,0.01,1,10,100,1000}范围内改变第三个参数。 由于空间限制,我只显示参数相对于BlogCatalog数据集的研究结果。由此可以看出,当α,β和γ在0.1到10的范围内时,集合性能达到了一般水平。一般而言,所提出的UPFS框架对这些模型参数不是很敏感, 范围,这在实践中是有吸引力的。

Conclusions and Future Work

真实世界的高维数据通常没有标签。在实际使用中无监督特征选择更具吸引力。现有的无监督特征选择算法试图为所有实例找出相同的判别特征组。然而,这些方法不可避免地忽视了实例的个性,因为不同实例的重要特征可能会发生显着变化。 为了解决这个问题,我们提出了一个有原则的框架UPFS,以找出每个实例的共享特征和实例的一个子集的特征判别特征。 实际数据集上的实验结果证实了所提出的框架的有效性。 未来的工作可以集中在为UPFS设计更高效的分布式优化算法,并将其部署到实际应用中。

Unsupervised Personalized Feature Selection--阅读笔记相关推荐

  1. Explicit Cross-lingual Pre-training for Unsupervised Machine Translation(CMLM阅读笔记)

    <Explicit Cross-lingual Pre-training for Unsupervised Machine Translation>是北航的SKLSDE Lab发表于EMN ...

  2. Feature Selection: A Data Perspective --阅读笔记1 特征选择的概述

    摘要 INTRODUCTION Traditional Categorization of Feature Selection Algorithms Feature Selection Algorit ...

  3. 《Discriminative Unsupervised Feature Learning with Exemplar Convolutional Neural Networks》阅读笔记

    <Context Encoders: Feature Learning by Inpainting>阅读笔记 摘要 我们提出了一种基于上下文的像素预测驱动的无监督视觉特征学习算法.类似于自 ...

  4. Feature Selection: A Data Perspective --阅读笔记2 传统数据的特征选择算法

    论文的前一部分 FEATURE SELECTION ON CONVENTIONAL DATA Similarity based Methods Laplacian Score SPEC FEATURE ...

  5. AutoField: Automating Feature Selection in Deep Recommender Systems 阅读笔记

    AutoField: Automating Feature Selection in Deep Recommender Systems WWW' 22 摘要 特征质量对推荐性能有重要影响.因此,特征选 ...

  6. 【论文阅读笔记】MFRDet:A single-shot multi-level feature reused neural network for object detection

    论文名:A single-shot multi-level feature reused neural network for object detection 引用:Wei L, Cui W, Hu ...

  7. 【机器学习】Unsupervised feature selection by regularized self-representation(RSR)

    RSR 参考论文:Unsupervised feature selection by regularized self-representation 作者:Pengfei Zhu , Wangmeng ...

  8. 机器学习 基础理论 学习笔记 (8)特征选择(feature selection)(一)

    0.说明 本文也许比较乱,请看目录再食用. 后续会 出文 机器学习 基础理论 学习笔记 (8)特征选择(feature selection)(二) 将 分类问题 和 回归问题 分开总结. 以及或将出文 ...

  9. RFA-Net: Residual feature attention network for fine-grained image inpainting 论文阅读笔记

    RFA-Net: Residual feature attention network for fine-grained image inpainting 论文阅读笔记 摘要 尽管大多数使用生成对抗性 ...

最新文章

  1. Android之四大组件(AIDL Service的使用)
  2. 企业网络推广下微软服务器浸泡于液体试图提高服务器的散热与性能
  3. 新手入门Web前端要掌握的4项基础技能
  4. 3g无线图传点到点模式与服务器模式比较,RTK网络模式分类及网络制式的选择
  5. Inside Class Loaders
  6. Canvas渲染会取代DOM吗?
  7. 为什么需要一个激励函数
  8. 四线温度探头怎么接线_温度变送器接线详解
  9. django多条件筛选搜索(项目实例)
  10. 基础篇:6.3)形位公差-要素 Feature
  11. 谷歌智能眼镜再掀数码浪潮
  12. UOS 操作蓝牙、wifi开关
  13. Cannot connect:由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。192.168.0.113:22
  14. 基于Robotics Toolbox的机械臂工作空间求解
  15. Node.js 2小时爬取驴妈妈8W+条旅游数据
  16. Words Of Wisdom
  17. 光的粒子说(光电效应/康普顿效应)
  18. 发个真正高效清理垃圾的脚本(请慎用,效果很强)
  19. Linux 系统删除文件名乱码的文件
  20. unittest测试mms医药系统登录模块

热门文章

  1. CentOS7 systemctl的使用
  2. springmvc前台String转后台Date
  3. 服务器硬盘冷迁移后网卡无法启动问题
  4. 用Handler的post()方法来传递线程中的代码段到主线程中执行
  5. 微软私有云分享(R2)26配置基线与更新
  6. CodeSmith 学习资料收集
  7. 博客摘录:网络管理员的两天
  8. 无盘服务器镜像包缓存设多少,【转】谈谈深度无盘缓存工具设置技巧
  9. php nuke是什么,Php Nuke For Donkeys
  10. Java中的I/O模型总结(八股文自述)