论文阅读笔记:自表达深度子空间聚类批判

  • 摘要
  • 1 简介和背景
    • 1.1 基于自表示的深度子空间聚类
    • 1.2 论文贡献
  • 2 理论分析
    • 2.1 基本缩放问题(scaling issue)
    • 2.2 AutoEncoder的损失有什么作用?
    • 2.3 数据集规范化和通道规范化
      • 定理1
      • 定理2
      • 定理3
    • 2.4 实例规范化
      • 定理4
      • 具有退化几何结构的简单网络示例
      • 命题

作者 Chong You et.al. 2020年10月公开于arXiv
翻译文献自:arXiv:2010.03697v1
Haeffele, B.D., You, C., & Vidal, R. (2021). A Critique of Self-Expressive Deep Subspace Clustering. ArXiv, abs/2010.03697.

摘要

子空间聚类是一种无监督聚类技术,旨在对线性子空间并支持的数据进行聚类,每个子空间定义一个维度低于环境空间的cluster。许多现有方法基于线性子空间的自表达性质——任何点都可以表示为同一子空间内其他点的线性组合。为了将此方法扩展到非线性流形上数据,许多研究建议使用神经网络学习原始数据的核嵌入。通过对嵌入空间中的数据使用自表达损失函数对其进行正则化,以鼓励数据在嵌入空间中形成线性子空间。在这里,我们表明,这种方法存在许多潜在的缺陷,这些缺陷在以前的工作中没有得到充分的解决。特别是,我们证明了模型公式在多个方面通常是不适定的(ill-posed),这可能导致数据embedding的退化,这种退化的嵌入根本不需要对应于子空间的并集。我们通过实验验证了我们的理论结果,并额外重复了先前文献中报告的实验,我们得出结论,先前研究声称的性能优势中有很大一部分可以归因于特殊的后处理步骤,而不是聚类模型本身。

1 简介和背景

子空间聚类是一个经典的无监督学习问题,人们希望将给定的数据集分割成一定数量的cluster,每个cluster被定义为一个维数低于环境空间的线性(或仿射)子空间。最先进的方法是基于利用线性子空间的自表达特性。基于这一事实,提出了各种各样的方法,对给定N个d维的数据点的数据集Z=Rd×N\textbf Z=\mathbb R^{d\times N}Z=Rd×N,通过解决以下优化问题求系数矩阵C∈RN×N\textbf C∈ \mathbb R^{N×N}CRN×N


其中第一项∥ZC−C∥F2\|{\bf ZC-C}\|_F^2ZCCF2能够捕获自表达性质,即用数据集本身的其它点去分别表出数据集中所有点,亦即我们希望Zi≈ZCi\textbf Z_i≈\textbf {ZC}_iZiZCi。第二项θ(C)\theta (\bf C)θ(C)是一种正则化,旨在鼓励得到子空间保持解,并避免平凡解(如C=I\bf C=IC=I)。一旦对得到C\bf CC,就可以定义数据点之间的Affinity graph,(A通常基于C项的大小),并使用适当的基于图的聚类方法生成数据点的最终聚类。

最早使用这种的方法是稀疏子空间聚类(SSC),其中θ的形式为:

其中∥⋅∥1\|\cdot\|_11表示ℓ1\ell_11范数,δδδ是指示函数:如果C对角线上的元素不为零则为∞∞。通过将C稀疏正则化,要求使用数量最少的其他点来表示自身,这反过来理想地要求数据点仅使用同一子空间中的其他点进行表出。同样,其他变体,如低秩表示(LRR)和弹性网络子空间聚类(EnSC),采用相同的形式,但选择不同的正则化:θLRR(C)=∥C∥∗,θEnSC=∥C∥+τ∥C∥F2+δ(diag(C)=0)θ_{LRR}(C)=\|C\|_*, θ_{EnSC}=\|C\| + τ\|C\|_F^2+δ(diag(C)=0)θLRR(C)=C,θEnSC=C+τCF2+δ(diag(C)=0),其中核范数∥C∥∗\|C\|_*C是奇异值的总和。

大多数这些方法的一个显著优点是,可以证明最优C矩阵是“正确的”(通常取决于关于基础子空间之间的角度和子空间内采样数据点的分布的一些技术假设)从这个意义上讲,如果CijC_ijCij是非零的,那么ZZZ的第iii列和第jjj列保证位于同一线性子空间中,这使得这些方法在许多应用中实现了最好的性能。

1.1 基于自表示的深度子空间聚类

尽管基于自表达的子空间聚类技术显示出很强的经验性能并提供了理论保证,但这些技术的一个显著局限性是需要在底层数据集上近似支持线性子空间。这导致了将其扩展到更一般的数据集的强烈动机,如支持非线性低维流形的数据。通过检查公式(1)的右侧,可以观察到对数据Z\bf ZZ的唯一依赖性是以Gram矩阵的形式出现的Z⊤Z\bf Z^\top ZZZ。因此,自表达子空间聚类技术可以改为使用“Kernel Trick”,即不在数据点之间使用内积,而是使用一般的kernel:κ(⋅,⋅)κ(·,·)κ(,)。当然,这种方法带来了固有的挑战,即如何选择合适的核,以便将数据嵌入核函数对应的Hilbert空间,从而得到嵌入空间中线性子空间。

最早在2013-2015年,Patel等人给出了学习不一定具有子空间结构的初始数据集X\bf XX的适当嵌入的方法。该方法学习一个可学习linear projection将数据投影到低维空间,即Z=PlX{\bf Z=P}_l\bf XZ=PlX(此时textPltext\bf P_ltextPlC\bf CC都被优化)。为确保在低维嵌入Z\bf ZZ中保留足够的原始数据信息,作者进一步要求linear projection满足PlPl⊤=I\textbf P_l\textbf P_l^\top=\textbf IPlPl=I的约束,并在目标函数中添加一个重构误差项∥X−PlPl⊤X∥F2\|\textbf X−\textbf P_l\textbf P_l^\top \textbf X\|^2_FXPlPlXF2

最近,鉴于深度神经网络最近取得的成功,大量研究试图通过神经网络ΦE(X,We)Φ_E(\textbf X,\mathcal W_e)ΦE(X,We)来学习数据嵌入(X\textbf XX为输入数据集、We\mathcal W_eWe为可学习参数)。为了鼓励嵌入后的数据具有子空间结构,这些方法通常最小化嵌入数据上的自表达损失项,其形式如公式(1)所示,且这些技术可以用一般形式来描述:


其中,FFF即自表达损失项,ggg是设计用于防止平凡解(如ΦE(X,We)=0Φ_E(\textbf X,\mathcal W_e)=0ΦE(X,We)=0)的规范化函数。文献中提出了几种不同的ggg

  1. 第一种方法是将某种形式的规范化直接作用于Z。例如,Peng等人提出了一种实例规范化(Instance Normalization),试图将嵌入数据点的范数约束为1,其形式为g(Z,X,C)=∑i=1N(Zi⊤Zi−1)2g({\bf Z,X,C})=\sum_{i=1}^N(\textbf Z_i^\top \textbf Z_i -1)^2g(Z,X,C)=i=1N(ZiZi1)2
  2. 同样,我们也可以考虑数据集规范化(Dataset Normalization),它限制整个嵌入表示的范数(∥Z∥F2≥τ\|\bf Z\|_F^2\geq \tauZF2τ)。
  3. 还可以是通道规范化(Channel Normalization),它限制的是Z\bf ZZ的每一行,即∀i,∥Zi∥F2≥τ\forall i,\|\textbf Z^i\|_F^2\geq \taui,ZiF2τ。我们注意到,这与神经网络训练中使用的常用的Batch Normalization算子非常相似,后者试图约束Z\bf ZZ的每一行具有零均值和常数范数。

g的另一种方式是,再训练一个decoder网络,将嵌入表示再映射回原始数据,以确保在自表达表示中保留足够的信息以恢复原始数据。我们将其称为Auto Encoder正则化,问题的一般形式如下:

其中,第一项是应用于嵌入表示的标准SE子空间聚类损失,第二项是标准AE损失,ℓ\ell通使用平方误差。注意,在这里,Kernel(以编码网络的形式)和最佳的C\bf CC是联合训练的,一旦问题(3)得到解决,就可以直接使用恢复的C\bf CC进行聚类。

1.2 论文贡献

基于自表达的深度子空间聚类(SEDSC)已应用于各种应用,但从理论角度对其了解相对较少。SEDSC的初始公式是基于这样一种直觉,即如果数据集是从线性子空间的并集中提取的,那么解决问题(1)会在C中产生聚类所需的属性。我们可以假设,如果我们还优化了学习嵌入(Z)的几何结构,那么这个目标可能会在嵌入空间中产生一个理想的几何结构(例如,线性子空间的并集)。

然而,对于(1)中形式的问题,大量先前的理论分析只考虑数据固定的情况,并分析最优C矩阵的性质。众所周知的,由于神经网络能够产生高度表达的映射函数(也因此可以生成Z的许多潜在值),因此使用(2-3)等模型本质上是使用(1)作为Z\bf ZZ的正则化函数,以鼓励Z\bf ZZ形成子空间并集的几何结构。然而,到目前为止,诸如(2-3)的模型在很大程度上是由直觉引导的,当我们在编码矩阵C\bf CC和网络产生的数据嵌入表示Z\bf ZZ上进行优化时,关于F(Z,C)F(\bf Z,C)F(Z,C)鼓励了何种类型的数据几何结构,仍然存在重大的问题。

在这里,我们通过理论分析来探讨这些问题,其中我们表明,当从数据中学习Kernel时,使用F(Z,C)F(\bf Z,C)F(Z,C)作为正则化函数,试图在嵌入空间中鼓励数据的几何结构在很大程度上是不够的。具体地说:

  1. 我们首先注意到一个基本事实,即(3)中的自动编码器正则化公式对于大多数常用网络来说通常是不适定的。
  2. 其次,即使假设嵌入表示已被适当地规范化,我们也表明F(Z,C)F(\bf Z,C)F(Z,C)鼓励的最佳嵌入数据几何结构是微不足道的,这取决于数据的规范化方式。
  3. 我们通过对真实数据和合成数据的实验来说明我们的理论预测。此外,我们通过实验证明,在以前的工作中报告的SEDSC模型的许多声称的性能优势都可以归因于对C\bf CC的后处理步骤。

图1:我们的理论结果表明:SEDSC模型的目标是训练网络(通常是AE)将数据从非线性流形的并集(左图)映射到线性子空间的并集(中图)。然而,我们表明,对于文献中提出的许多公式,模型的全局最优解在嵌入空间中将发生退化。例如,在Dataset /Channel Batchnormalization中,定理2表明,全局最优几何体将在原点附近聚集所有点,但两个点除外,它们将是彼此的对称copy(只是符号翻转)(右图)。

2 理论分析

2.1 基本缩放问题(scaling issue)

考虑最流行的公式,即采用(3)中的AE正则化。具体地说,我们注意到,如果没有对自动编码器网络参数We,Wd\mathcal W_e,\mathcal W_dWeWd进行任何正则化,或者在嵌入表示ΦE(X,We)Φ_E(\textbf X,\mathcal W_e)ΦE(X,We)上进行任何归一化,则(3)中的公式通常是不适定的,F(ΦE(X,We),C)F(Φ_E(\textbf X,\mathcal W_e),C)F(ΦE(X,We),C)的值在不改变自动编码器loss的情况下,通过缩小Encoder中的权重,并以不改变AE输出但降低嵌入表示的幅度的方式放大Decoder中的权重,可以使其任意变小

举个例子:考虑一个单隐藏层的全连接网络作Encoder-Decoder。编码器ΦE(X,We)=We2(We1X)+Φ_E(\textbf X,\mathcal W_e)=\textbf W^2_e(\textbf W^1_e \textbf X)_+ΦE(X,We)=We2(We1X)+和解码器ΦD(Z,We)=Wd2(Wd1Z)+Φ_D(\textbf Z,\mathcal W_e)=\textbf W^2_d(\textbf W^1_d \textbf Z)_+ΦD(Z,We)=Wd2(Wd1Z)+,其中(x)+=max{x,0}(x)_+=max\{x,0\}(x)+=max{x,0}也就是表示引入entry-wise的非线性ReLU。然后注意到,对于任何α≥0α≥0α0,ReLU函数都是degree为1的正齐次函数从而有:ΦE(X,αWe)=(αWe2)(αWe1X)+=α2ΦE(X,We)Φ_E(\textbf X,α\mathcal W_e)=(α\textbf W^2_e)(α\textbf W^1_e \textbf X)_+=α^2Φ_E(\textbf X,\mathcal W_e)ΦE(X,αWe)=(αWe2)(αWe1X)+=α2ΦE(X,We),对于Decoder同理。也就是说通过α>0α>0α>0We\mathcal W_eWe进行缩放,然后再用α−1α^{-1}α1Wd\mathcal W_dWd进行缩放,并不会改变最终AE的输出,即:

但此时,嵌入表示的范数却发生了变化∥ΦE(X,αWe)∥F=α2∥ΦE(X,αWe)∥F\|Φ_E(\textbf X,α\mathcal W_e)\|_F=α^2\|Φ_E(\textbf X,α\mathcal W_e)\|_FΦE(X,αWe)F=α2ΦE(X,αWe)F。由此,将α取为任意小,嵌入的大小也可以任意小,则目标(3)中的F(Z,C)F(\bf Z,C)F(Z,C)值也可以任意小,而不改变自动编码器的重构误差ℓ\ell。这意味着只是训练了一个AE,而不需要F(Z,C)F(\bf Z,C)F(Z,C)项的任何贡献(除了试图降低嵌入表示的幅度)

在实践中,大多数SEDSC使用了这网络而没有正则化,我们注意到,此类模型永远无法求解为全局最优,并且本质上是不适定的。由此可以得出结论,自动编码器正则化本身不足以防止目标(2)得到平凡解。如果通过对网络权重施加正则化/约束(例如使用weight decay或耦合编码器和解码器之间的权重),确保嵌入表示的幅度被约束为大于某个最小值,则该特定问题可以很容易地得到解决(尽管之前的工作通常不如此做),可以在最后一层或编码器上选择不同的非线性激活函数,也可以显式地规范化嵌入表示。然而,即使上面的问题得到纠正,问题仍然是(1)的自表达约束到底鼓励了什么样的几何结构?我们下一步将对此进行探讨。

2.2 AutoEncoder的损失有什么作用?

自动编码器损失旨在确保嵌入表示Z保留关于原始数据X的足够信息,以便解码器可以重构数据,但我们注意到,这并不一定会对Z中嵌入点的几何结构施加重大约束。虽然编码器/解码器体系结构的选择可能会对Z的可能几何结构施加一些约束,合理表达的编码器和解码器可以将有限数量的数据点任意映射到嵌入空间中,并且仍然能够准确地对其进行解码,前提是任意两个点的嵌入在某些ϵ\epsilonϵ扰动中仍然是不同的(即ΦeΦ_eΦe是X中点的一对一映射)。此外,由于我们只对有限的点集X上的映射进行评估,因此这比众所周知的神经网络通用近似机制(需要在整个连续数据域上进行良好的近似)更容易(并且可以通过更简单的网络实现),并且有充分的证据表明,典型的网络体系结构可以最佳地拟合任意有限的训练数据。

我们将首先关注自动编码器具有高度表达能力的设置。在这种情况下,编码器可以选择权重参数来产生任意的Z嵌入选择,只要ΦE(Xi)≠ΦE(Xj),∀Xi≠XjΦ_E(\textbf X_i)\neq Φ_E(\textbf X_j),∀\textbf X_i\neq \textbf X_jΦE(Xi)=ΦE(Xj),Xi=Xj,然后解码器可以准确地恢复原始数据X\textbf XX。因此,对于几乎任何Encoder,AE损失ℓ\ell在(3)中都可以被精确地最小化,因此最佳网络权重将是使F(Z,C)F(\bf Z,C)F(Z,C)最小化的网络权重(可能在一些小扰动范围内使得ΦE(X)Φ_E(\textbf X)ΦE(X)X\bf XX点上的一对一映射)。如果没有其他形式的正则化,这是不适定的,因此在下面的章节中,我们将探索F(Z,C)F(\bf Z,C)F(Z,C)的最优解,当在C和嵌入表示Z上进行优化时,受Z上的三个不同约束:(1)数据集规范化∥Z∥2≥τ\|Z\|_2≥τZ2τ;(2)通道规范化∀i,∥Zi∥F2≥τ\forall i,\|\textbf Z^i\|_F^2\geq \taui,ZiF2τ;(3)实例规范化∀i,∥Zi∥F2≥τ\forall i,\|\textbf Z^i\|_F^2\geq \taui,ZiF2τ。最后,在描述了F(Z,C)F(\bf Z,C)F(Z,C)的解之后,我们给出了一个可以实现这些解的非常简单(不具有高度表达能力)的体系结构系列的具体示例,表明对于这些解的全局最优性而言,不必假设具有高度表达能力的网络。

2.3 数据集规范化和通道规范化

我们将首先考虑数据集和通道归一化方案,它们将得到非常相似的对嵌入数据几何结构的最优解。此外,虽然我们没有明确地强制执行零均值约束,但我们将看到存在具有零均值的最优解。现在,如果在(Z,C)(\bf Z,C)(Z,C)上联合优化F(Z,C)F(\bf Z,C)F(Z,C),并受上述施加在Z\bf ZZ上的约束,则以下情况成立:

定理1

考虑以下联合优化Z\bf ZZC\bf CC的目标:

那么P1和P2中C的最优解:

此外,对于任何最优C∗\bf C^∗C, 设rrr(C∗−I)(\bf C^*-I)(CI)的最小奇异值的重数,令Q∈RN×rQ∈\mathbb R^{N×r}QRN×r是由与C\bf CC的最小奇异值相对应的左奇异向量所span的子空间的正交基。然后由下式我们得到Z的最佳值:

我们可以从注意到,在Z和C上联合优化F(Z,C)F(\bf Z,C)F(Z,C)相当于找到一个最佳的C来最小化C−I\bf C−ICI的最小奇异值和正则化θ(C)θ(\bf C)θ(C)之间的trade-off。此外,如果最优C导致C−I\bf C−ICI的最小奇异值的重数为1,那么这意味着Z\bf ZZ中的每个数据点都是同一点的缩放版本。显然,这样的嵌入对于子空间聚类是无用的。由于最小奇异值是矩阵的凹函数,θ通常为凸正则化函数,导致convex+concave优化,因此在一般情况下C\bf CC的最优解有点复杂。相反,我们将关注最常用的正则化选择,首先是θSSC=∥C∥1+δ(diag(C)=0)\theta_{SSC}=\|\textbf C\|_1+\delta(diag(\bf C)=0)θSSC=C1+δ(diag(C)=0),这种情况下最优解为σmin(C−I)=0\sigma_{min}({\bf C-I})=0σmin(CI)=0。我们注意到,这对应于Z∗=Z∗C∗\bf Z^∗=Z^∗C^∗Z=ZC在(1)中当λ\lambdaλ小的时候得到的值。

定理2


该问题的最优解具有集合的形式:


其中P∈RN×NP∈\mathbb R^{N×N}PRN×N是任意有符号的置换矩阵,z∈Rdz∈\mathbb R^dzRd是满足以下条件的任意向量:∥Z∥F2≥τ2\|\textbf Z\|_F^2≥ \frac{\tau}{2}ZF22τ for (P1) 和 zi2≥τ2d,∀i∈[1,d]\textbf z_i^2≥\frac {\tau}{2d}, \forall i\in[1,d]zi22dτ,i[1,d] for (P2)。

从上面的结果我们证明,如果Z被规范化,在整个嵌入表示或每行上都有一个下界范数,那么F(Z,C)F(\bf Z,C)F(Z,C)损失仍将尝试将所有点推至0点,但两个点除外,这两个点将是彼此的副本。同样,对于聚类来说,最佳嵌入表示显然是不适定的,因为除了两个点之外,所有的点在嵌入空间中都被平凡地推向0点。

此外,当C\bf CC被任何Schatten-p范数正则化时,我们也给出了一个类似于定理2的结果,包括另外两种流行的正则化选择——Frobenius范数和核范数的情况。

定理3

考虑以下问题

其中∥⋅∥SP\|\cdot\|_{\mathcal S_P}SP表示施加在C\bf CC上任意Schatten-p范数,有集合形式刻画的最优解:

z∈Rdz∈\mathbb R^dzRd是满足以下条件的任意向量:∥Z∥F2≥τ\|\textbf Z\|_F^2≥ \tauZF2τ for (P1) 和 zi2≥τd,∀i\textbf z_i^2≥ \frac{\tau}{d}, \forall izi2dτ,i for (P2)。

2.4 实例规范化

为了防止嵌入空间中的大多数点像之前两个规范化方式中那样被平凡地推向0点,提出的另一个潜在规范化策略是使用实例规范化,其中,每个嵌入数据点的ℓ2\ell_22范数被约束为等于某个常数。事实上这依然会导致一些数据几何结构的平凡解。具体地说,我们将再次关注SSC的正则化,由此得出以下结果:

定理4


这一问题的最优解必须具有以下性质:对任何Z∗\bf Z^*Z中的列Zi∗\bf Z^*_iZi,存在另一不同的列Zj∗(i≠j)\bf Z^*_j(i\neq j)Zj(i=j)使得Zi∗=si,jZj∗\textbf Z^*_i=s_{i,j}\textbf Z^*_jZi=si,jZj,其中si,j∈{−1,1}s_{i,j}\in\{-1,1\}si,j{1,1}。进而,∥Ci∗∥=1,∀i\|\textbf C^*_i\|=1,\forall iCi=1,iCi,j≠0⟹Zi∗=±Zj∗\textbf C_{i,j}\neq 0\Longrightarrow \textbf Z^*_i=\pm \textbf Z_j^*Ci,j=0Zi=±Zj

导致上述结果的原因非常直观,因为给定的点不能自身表出,所以次好的方法是在另一列中拥有自身的精确副本。虽然这一结果更有利于成功的聚类,因为嵌入空间中靠近的点被鼓励“合并”为单个点,但会产生许多畸形的几何结构。具体而言,对表示中的“不同”点的数量没有任何限制,但必须小于N/2。因此,最优的C∗\bf C^∗C矩阵还可以包含affinity graph中任意数量(在[1,N/2][1,N/2][1,N/2]范围内)的连接分量,从而某种程度上产生任意的谱聚类。

具有退化几何结构的简单网络示例

在第2.2节中,我们讨论了如果Encoder-Decoder具有高表达性,那么最佳嵌入将如何拟合我们在理论分析中给出的解。在这里,我们展示了使用相对简单的Encoder-Decoder也会发生平凡的嵌入。具体地,有两层仿射映射(即线性加偏置)、隐藏层使用ReLU的Encoder-Decoder可以分别写成:

其中,线性算子(W矩阵)可以选择性地受到约束(例如,对于卷积运算,W可能需要是Toeplitz矩阵)。现在,如果我们有嵌入维度ddd等于数据维度dxd_xdx,我们会说,如果存在参数(W2,W1)\bf (W^2, W^1)(W2,W1,线性算子可以表示X\bf XX上的恒等式,使得W2W1X=X\bf W^2W^1X=XW2W1X=X。注意,如果(14)中的结构全连接(full-connected) 意味着对于一般X\bf XX,隐藏单元的数量大于或等于KaTeX parse error: Expected group after '_' at position 5: d=dx_̲(如果X\bf XX为低秩,则隐藏单元的数量可以更少),而如果线性算子为卷积,则我们只需要一个卷积通道(核为δδδ的函数)。在此情况下,我们得到以下结论:

命题

考虑在(14)形式的编码器和解码器。给定任何数据集X\bf XX,如果编码器/解码器中的线性算子都可以表示X\bf XX上的恒等式,则对任何τ>0τ>0τ>0,都存在满足以下条件的网络参数(We,Wd)(\mathcal W_e,\mathcal W_d)(We,Wd)

  1. 嵌入点之间任意靠近
  2. 嵌入点的范数任意接近τ\tauτ
  3. 嵌入点可被解码器精确恢复

    从上面的简单示例中,我们可以看出,即使使用非常简单的网络架构(即,不一定具有高度的表达能力),仍然可能有任意逼近全局最优解的解,在这个意义上,点可以在嵌入空间中任意接近彼此,其范数任意接近任何τττ,同时仍然具有X\bf XX的完美重构。

图2:YaleB、COIL100和ORL数据集上的聚类精度结果,包括(虚线表示)和不包括(实线表示)Ji等人提出的C矩阵后处理步骤。Raw Data表示对原始数据进行聚类。Autoenc only表示直接从未加F(Z,C)F(\bf Z,C)F(Z,C)项训练的自动编码器得到的特征进行聚类。Full SEDSC表示使用第目标(3)所定义的的完整AE模型。

论文阅读笔记:A CRITIQUE OF SELF-EXPRESSIVE DEEP SUBSPACE CLUSTERING,自表达深度子空间聚类批判相关推荐

  1. 论文阅读笔记(8):Structured Sparse Subspace Clustering: A Joint Affinity Learning and Subspace Clustering

    论文阅读笔记(8):Structured Sparse Subspace Clustering: A Joint Affinity Learning and Subspace Clustering F ...

  2. 论文阅读笔记:ProjectionNet: Learning Efficient On-Device Deep Networks Using Neural Projections

    提示:阅读论文时进行相关思想.结构.优缺点,内容进行提炼和记录,论文和相关引用会标明出处. 文章目录 前言 介绍 相关工作 神经投影网络(Neural Projection Networks) Pro ...

  3. 论文阅读笔记: (2022 TPAMI) Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification

    车道线检测是自动驾驶中的基础任务之一,我们今天来看一篇来自浙大的TPAMI 2022的文章! 文章看下来,可以理解为是专门为车道线任务设计的语义分割网络 文章地址: https://arxiv.org ...

  4. 论文阅读笔记(2):Learning a Self-Expressive Network for Subspace Clustering,SENet,用于大规模子空间聚类的自表达网络

    论文阅读笔记(2):Learning a Self-Expressive Network for Subspace Clustering. SENet--用于大规模子空间聚类的自表达网络 前言 摘要 ...

  5. 论文阅读笔记(9):加权稀疏子空间表示——子空间聚类、约束聚类和主动学习的统一框架

    论文阅读笔记(9):WEIGHTED SPARSE SUBSPACE REPRESENTATION--A UNIFIED FRAMEWORK FOR SUBSPACE CLUSTERING, CONS ...

  6. 全卷积(FCN)论文阅读笔记:Fully Convolutional Networks for Semantic Segmentation

    论文阅读笔记:Fully Convolutional Networks forSemantic Segmentation 这是CVPR 2015拿到best paper候选的论文. 论文下载地址:Fu ...

  7. DnCNN论文阅读笔记【MATLAB】

    DnCNN论文阅读笔记 论文信息: 论文代码:https://github.com/cszn/DnCNN Abstract 提出网络:DnCNNs 关键技术: Residual learning an ...

  8. Learning Multiview 3D point Cloud Registration论文阅读笔记

    Learning multiview 3D point cloud registration Abstract 提出了一种全新的,端到端的,可学习的多视角三维点云配准算法. 多视角配准往往需要两个阶段 ...

  9. FCGF论文阅读笔记

    FCGF论文阅读笔记 0. Abstract 从三维点云或者扫描帧中提取出几何特征是许多任务例如配准,场景重建等的第一步.现有的领先的方法都是将low-level的特征作为输入,或者在有限的感受野上提 ...

  10. PointConv论文阅读笔记

    PointConv论文阅读笔记 Abstract 本文发表于CVPR. 其主要内容正如标题,是提出了一个对点云进行卷积的Module,称为PointConv.由于点云的无序性和不规则性,因此应用卷积比 ...

最新文章

  1. boost::scoped_thread相关的测试程序
  2. 团体程序设计天梯赛-练习集 L1-002 打印沙漏
  3. 在线生成横幅BANNER广告图网站源码
  4. SolidEdge 如何绘制局部视图 局部放大图
  5. input file 选择文件后自动上传文件
  6. Python全栈开发之数据类型
  7. iap 审核 文档_为什么必须审核文档
  8. 聊聊Vue(前端Vue面试包过)【面试干货】
  9. git如何查看和切换账号
  10. 抖音店播 就是我们说的商家自播品牌自播
  11. Robot Framework自动化测试(一)---第一个脚本
  12. CherryTree:一款免费开源的富文本笔记软件
  13. 操作系统形式化验证实践教程(1) - 证明第一个定理
  14. 虚拟机共享文件夹制作|Ubuntu与本机文件共享
  15. 常用数学符号的英文读法
  16. 全球及中国隐形眼镜护理液行业消费规模及投资竞争力分析报告2021-2027年
  17. arcgis根据7参转坐标_ArcGIS和COORD进行坐标七参数转换国家2000的方法
  18. 如何有效的招聘技术人员
  19. java string占用内存_Java中String到底占用多大的内存空间?
  20. 膨胀珍珠岩板(EPB) 保温材料英国UKCA 认证-EN 13169

热门文章

  1. 梅罗对决没了,欧足联的错误?
  2. 【实习面经】头条后台开发岗一面凉经
  3. ssh服务端配置了authorized_keys,免密登录失败
  4. das for gyb2.0新增特性说明
  5. 使用html5与js实现音乐播放器
  6. Win10控制面板打不开怎么办?
  7. nexus4刷机 android6.0,谷歌nexus 5刷机工具
  8. 定时监控服务端口是否正常 发送邮件
  9. 《Region Proposal by Guided Anchoring》论文笔记
  10. 有赞宣布收费,免费模式在移动电商时代真走不通?