• 然而,最近的研究(如[69]、[70])表明,像素级重建方法往往过分强调低层次图像细节,而这些细节对人类感知的兴趣非常有限

  • 相比之下,高层图像结构的语义被忽略,但它们实际上是基于DNN的OD的关键

  • 另一种新兴的生成性DNN是GANs。尽管取得了丰硕的进展,但将其整合到OD[71]中仍然具有挑战性:首先,实际上很难生成足够的真实图像离群值,因为潜在的图像离群值是无限的,通过GAN生成高质量的图像离群值仍然是一个开放的话题;其次,使用GANs进行有效的表征学习既不直接也不容易。

  • 相比之下,监督判别学习范式仍然是迄今为止学习图像语义和捕捉高层结构的最有效方法。因此,上述原因促使我们引入自我监督,以便在OD中使用歧视性学习范式

符号 表示
X\mathcal XX 所有图像数据张成的空间
XXX X⊆X,X=Xin∪XoutX ⊆ \mathcal X,X = Xin ∪ XoutX⊆X,X=Xin∪Xout,未标记的图片
x∈Xx\in Xx∈X xxx为一张未标记的图像
S(⋅)S(·)S(⋅) 深度评分模型,The goal of S(·) is to output S(x) = 1 for any inlier x ∈ Xin, while S(x) = 0 for any outlier x ∈ Xout.

3.2.2 Self-supervised Discriminative Network (SSD)

我们建议通过对给定图像进行一些常见的数据操作来建立自我监控,而不是生成[50]这样的伪离群值类,这是一项直接但困难的任务。某些操作产生的新数据被视为一个伪类。然后,我们可以通过训练有区别的DNN对创建的伪类进行分类,很容易地实现表示学习。

符号 表示
operations的集合 O={O(⋅∣y)}y=1KO = \{O(·|y)\}^K_{y=1}O={O(⋅∣y)}y=1K​ 创建伪类pseudo classes
x(y)=O(x∣y)x^{(y)} = O(x|y)x(y)=O(x∣y) 新的伪类图像
X(y)={x(y)∣x∈X}X^{(y)} = \{x^{(y)}|x ∈ X\}X(y)={x(y)∣x∈X} 第y个伪类
X′={X(1),⋅⋅⋅,X(K)}X' = \{X^{(1)} , · · · , X^{(K)}\}X′={X(1),⋅⋅⋅,X(K)} SSD的训练数据
YYY SSD的 label set
  • 训练具有K节点Softmax层的SSD以执行分类

变换识别网络

SSD的过程为将数据x(y’)x^{(y’)}x(y’) 分类为伪类y′y'y′.SSD的softmax输出序列x(y′)x^{(y')}x(y′)的分布为:

P(x(y′)∣θ)=[P(y)(x(y′)∣θ)]y=1K其中P(y)(⋅)为分布,θindicatethe可学习参数P(x^{(y')}|θ) = [P^{(y)}(x^{(y')} |θ)]^K_{y=1}\\ \tiny 其中P^{(y)}(·)为分布,θ \ indicate \ the可学习参数P(x(y′)∣θ)=[P(y)(x(y′)∣θ)]y=1K​其中P(y)(⋅)为分布,θ indicate the可学习参数

Loss函数 criterion = nn.CrossEntropyLoss()

LDSS=1N∑i=1NLSS(xi∣θ)L_{DSS}=\frac{1}{N}\sum_{i=1}^{N}L_{SS}(x_i | \theta)LDSS​=N1​i=1∑N​LSS​(xi​∣θ)

LSS(xi∣θ)=−1K∑y=1Klog(P(y)(xi(y)∣θ))L_{SS}(x_i|\theta)=-\frac{1}{K}\sum_{y=1}^Klog(P^{(y)}(x_i^{(y)}|\theta))LSS​(xi​∣θ)=−K1​y=1∑K​log(P(y)(xi(y)​∣θ))

data operation

符号 表示
ORA\mathcal O _{RA}ORA​ Regular affine operation
OIA\mathcal O_{IA}OIA​ irregular affine operation
OPR\mathcal O_{PR}OPR​ patch rearranging operation

这些操作背后的一般直觉是,当需要完成此类分类任务时,强制DNN捕捉图像中高层结构的语义。

例如,为了识别施加在原始图像上的旋转类型,DNN必须学会定位图像中的显著对象,并识别其高级特征的方向,例如人的头部和腿部。

由于页面限制,我们在补充材料第1节中详细说明了数据操作设计。

3.2.3 Comparison between SSD and AE

为了验证SSD是否可以学习更好的图像表示,我们进行了一个简单的实验,将SSD与卷积AE(CAE)进行比较。我们选择WRN-28-10[72]作为SSD,并采用[57]中的CAE架构,其深度接近SSD。然后,我们提取SSD倒数第二(penultimate )层的输出作为学习表示,同时提取CAE中间层的输出进行比较(注意,它们共享相同的维度)。

使用第4.1节中描述的协议,评估图像数据集的OD性能,学习

SSD和CAE都被送入具有相同参数化的隔离森林( Isolation Forest ,IF)模型中以进行OD。比较如图3所示:在这些图像基准上,SSD的学习表示始终能够提高IF的OD性能,这证明了SSD的有效性。

3.3 Inlier Priority: Foundation of End-to-end OD

3.3.1 Motivation

虽然提出的SSD实现了比CAE更有效的表示学习,但仍存在一些问题:

  • 首先,在没有使用[48]这样的专门OD网络的情况下,拟议范式实际上学习了一个预先的文本任务(即分类),而不是OD,因此目前我们无法仅从SSD直接绘制OD结果;
  • 第二,尽管我们可以像第3.2.3节那样求助于经典OD模型,但由于学习表示法和OD模型未联合优化,这种两阶段解决方案可能是次优的。事实上,第3.2.3节中SSD+IF解决方案的OD性能在相对困难的基准(即CIFAR10/SVHN/CIFAR100)上确实有改进的空间(60%-70%AUROC)。因此,端到端解决方案有利于深度OD。

然而,对于所提出的SSD,数据操作被平等地施加在内联和离群上以创建伪类,并且它们被不分青红皂白地馈送到DNN中进行训练。因此,仍不确定在测试过程中,内点和异常值的行为是否会有所不同自监督学习。这促使我们从理论和实证两个角度探讨这个问题。

3.3.2 The Theoretical View

首先,我们从理论角度探讨这个问题。

由于DNN的理论分析仍然特别困难,我们考虑了一个可分析的简化案例:

我们选择具有单个隐藏层和sigmoid激活的前馈网络作为SSD。假设隐藏层和Softmax层分别有(L+1)和K个节点。

简单SSD的参数通过i.i.d均匀分布随机初始化[−1, 1]. 由于神经网络通常通过梯度下降进行优化,因此施加在SSD上的正常和异常值的影响可以通过它们反向传播以更新网络参数的梯度来反映。

  • 梯度分析
    (1 ≤ c ≤ K)
    我们分析了隐藏层(在这种情况下也是倒数第二层)和最终Softmax层之间关于第c类的权重,

    其直接影响SSD的预测结果。

对于我们案例中使用的交叉熵损失L,仅使用通过对Xin施加 第c次运算产生的数据来更新wc

为了量化内点对随机初始化SSD的影响,一个直接指标可以是内点层梯度幅值更新的期望


这得出了一个有趣的结论:虽然内点和离群值同样用于SSD的自监督学习,但内点贡献的梯度比离群值重要得多。

由于这些反向传播的梯度用于训练SSD,理论分析得出了一个潜在属性:SSD在自监督学习过程中倾向于优先处理内点,本文称之为内点优先级。

这种特性意味着内点和外点在自监督学习中表现不同,这使得建立端到端OD解决方案成为可能。由于难以计算更复杂SSD的E(h(t)(xi)h(t)(xj)),我们将在下一节中通过经验验证进一步验证更高优先级。

3.3.3 Empirical Validations

为了从经验上进一步验证内部优先级的属性,我们建议分别计算内部优先级和异常值的更直接的指标“事实更新”:
de facto. [ˌdeɪ ˈfæktəʊ]
de facto 是一个拉丁语的法学词汇,意思是法律并未承认,但事实上存在的(形容词 & 副词)

如图4a所示,从一批数据X中考虑xi(我们在这里稍微滥用了X的符号)。负梯度−∇θL(xi)是减少xi loss 的最快网络更新方向。

然而,网络权重θ实际上由整个批次X的平均负梯度更新,

  • 测量xi沿其最佳方向获得的实际梯度大小,以便从−∇θL(X),我们引入了事实更新的概念,通过投影计算∇θL(X)在∇θL(xi):

  • 例如,如图4a所示,事实更新d1和d2反映了 对于x1和x2 网络将分别致力于减少训练损失的程度。

事实更新可以被视为训练期间数据优先级的更直接指标。在第4.1节中的设置下,我们分别计算内点和异常值的平均事实更新,并在图4b-4d中显示几个图像基准上的典型事实更新结果:从结果可以看出,尽管在开始时很接近,但随着训练的继续,内联线的平均事实更新明显高于异常值,这证明SSD将偏向于内联器的最佳更新方向。

3.3.4 Baseline Outlier Score and Additional Remarks

在理论和经验上说明了内插优先级之后,可以预期,在自监督学习之后,内插很可能比SSD上的异常值获得更好的训练性能。

换言之,SSD将优先减少输入损耗,这表明在训练后可以通过每个数据的损耗值直接区分异常值。

更具体地说,对于图像x(y)x^{(y)}x(y),我们注意到其交叉熵损失的计算仅取决于其基本真值类概率P(y)(x(y)∣θ)P^{(y)}(x^{(y)}|θ)P(y)(x(y)∣θ)相对于其伪类标签y。
因此,我们提出了Ground Truth Probability(GTP)分数Sgtp(x)S_{gtp}(x)Sgtp​(x),该分数平均了所有K个运算的P(y)(x(y)∣θ)P(y)(x(y)|θ)P(y)(x(y)∣θ)以测量异常值:



略…………

3.4 Network Uncertainty As an Outlierness Measure

3.4.1 Motivation

SSD+GTP分数提供了基线端到端OD解决方案。

然而,它并不完善,仍有改进的空间,特别是考虑到拟议的自监督学习不如经典的带人类注释的监督学习精确:

数据操作有时可能无法将原始图像转换为实际的新图像,例如,在执行翻转后,数字“8”本身仍然存在。因此,分配给伪类的标签可能不准确。

由于(8)中GTP分数的计算依赖于伪类标签y,这种不准确的标签可能会破坏GTP分数区分异常值的有效性。

基于这个问题,我们打算设计一种独立于伪类标签的新离群度度量,以进一步提高端到端OD性能。此外,与密度或接近度等其他异常值度量相比,不确定性通常在DNN训练期间直接优化,而其他度量不是优化的明确目标。因此,我们认为,与其他传统措施相比,网络不确定性可以成为更直接的优先级指标。为此,我们看到了网络不确定性,因为它正是DNN分类精度的正交属性[74]。由于之前的工作基本上是在DNN预测置信度的背景下讨论这个概念,因此探索网络不确定性是否可以用于端到端OD是一个有趣的问题。

3.4.2 A Demonstration Experiment 演示实验

我们进行了一个简单的演示实验来阐明这个问题。为了可视化,我们生成了具有不同异常度的2D数据(详见补充材料第3节):生成的数据(图6中的点)显示出更大的离散度,因为它们在x轴上的坐标xi距离x轴的原点越远,这使得两端的数据显示出更大的异常度。

为了计算网络不确定性,我们引入了一个回归任务,该任务通过相应的xi预测y轴坐标yi。

请注意,回归任务可以被视为一个自监督学习任务,因为我们实际上打算通过不完整数据x~i\widetilde x_ixi​=[xi]来推断缺失的坐标yi,就像masking mechanism掩蔽机制[58]一样。

回归任务是通过使用生成的2D数据训练一个简单的神经网络来执行的,我们通过流行的MC-Dropout方法来估计神经网络的不确定性[64]。

训练神经网络以完成自监督学习任务(而不是OD本身)的不确定性实际上是测量数据异常值的一种相当有效的方法。此外,值得注意的是,网络不确定性与标签yi无关。正如我们在第3.4.1节中讨论的那样,这有助于它在自监督学习中更稳健地标记噪声。

3.4.3 Network Uncertainty based Outlier Scores

如第2.3节所述,DNN的不确定性可以通过几种方法估计,可以分为贝叶斯方法和非贝叶斯方法。

由于贝叶斯方法通常更复杂,需要对DNN本身进行更多修改,因此在设计离群值分数时,我们关注非贝叶斯方法。设计了以下基于网络不确定性的分数:

(1) 最大概率(MP)得分Smp(x)S_{mp}(x)Smp​(x)。

Smp(x)S_{mp}(x)Smp​(x)利用SSD的Softmax层输出的最大概率(即预测概率),这已被证明是不确定性估计的简单但强大的基线[66]、[67]:

(2) MC-Dropout (MCD) score Smcd(x)S_{mcd}(x)Smcd​(x).

MC Dropout在推理过程中保持了Dropout层的功能,并通过几个正向传递计算DNN输出的一阶和二阶矩[64]。

由于DNN输出中的最大输出概率和方差都能够反映DNN的不确定性,我们设计了如下Smcd(x),以使其适应OD任务(平均值(·),而V ar(·)是指多个正向传递的平均值和方差):

(3) 基于负熵(NE)的分数Sne(x)。信息熵(即香农熵)一直用于测量数据中嵌入的信息和不确定性。因此,我们将Sne(x)设计为计算SSD输出概率分布P(x(y)|θ)的负熵:

除上述分数外,还可以探索其他基于网络不确定性的分数。我们后来的评估表明,基于网络不确定性的分数通常比基线异常值分数Sgtp更好。

3.5 Score Refinement of Discriminative E3Outlier

尽管上述组件构成了一个全功能的端到端OD解决方案,但仍有可能提高判别E3Outlier的性能。

正如我们已经演示了更高优先级和网络不确定性如何实现端到端OD,它们也应该被视为性能改进的来源。直观地说,更好的OD性能本质上表明内联器的优先级被放大,同时也可以通过更好的不确定性估计来实现。受这种直觉的启发,我们提出了两种改进离群值分数的策略。

3.5.2 Re-weighting Strategy

我们的第一反应是让SSD在训练期间进一步优先考虑内线。然而,值得注意的是,在训练开始时,内联线和异常值被不分青红皂白地馈送到SSD,即内联线和异常值的权重为1。在揭示了内联线优先级在OD中的作用后,毫无疑问,这种默认初始化不是最优的:

我们可以在SSD训练开始之前分配具有较大权重的内联子,这证明了引入重新加权方案的合理性。

由于给定数据在OD中完全未标记,如何以及何时为OD重新加权这些未标记数据是我们必须回答的关键问题。至于如何重新加权,我们的解决方案是利用所提出的离群度测度产生的分数作为权重,这些分数已经取得了比现有方法更好的OD性能。

更具体地说,我们可以将分数归一化为满足∑i=1Nwi\sum^N_{ i=1} w_i∑i=1N​wi​=1的非负权重w1、··wN,并将(1)中的目标函数修改为以下形式:

至于何时重新加权,由于分数只有在自监督学习开始后才能访问,我们可以在SSD训练期间或之后执行重新加权。因此,我们提出了在线重加权和重启重加权策略:在线重加权策略将在每个历元结束时更新权重,并且只训练一个SSD。
相比之下,重启重新加权训练了两种SSD型号:
第一个SSD通过标准程序进行训练,而第一个SSD产生的分数用作固定权重来训练第二个SSD。补充材料第4节中的算法1和算法2详细介绍了完整的算法。我们的评估表明,这两种算法都可以提高E3Outlier的性能。

3.5.3 Ensemble Strategy集成策略

除了重新加权策略外,

另一个本能是改进不确定性估计以获得更好的OD性能。

由于总是首选易于嵌入模型的通用策略,因此我们将集成策略引入分数细化阶段。

集成是机器学习中广泛使用的一种技术,它将多个模型组合成一个更强的模型。

结果表明,它是提高预测性能的有力工具[75],最近的工作还表明,DNN集合可以高效地生成良好的模型不确定性估计[65]、[67]。具体来说,我们首先以某种方式创建多个SSD模型M1、···、Me,

其中e>1是SSD型号的数量。例如,我们可以使用不同的随机种子初始化SSD模型,或者采用几种不同的网络架构作为不同的SSD模型。在自监督学习之后,我们只需通过以下方式平均不同SSD模型的输出:

Pj(x

(y)

一、

|θ) 是

第j个SSD模型的输出。

注意,集合过程可以很容易地平行于潜在加速度。我们后来的经验评估表明,这种简单的集成技术几乎一直在改进

与使用单个SSD模型的情况相比,OD性能。

3.5.4 Joint Score Refinement

上述两种策略都能够产生更好的效果异常值分数,
但应注意的是,他们实际上从不同的角度细化了离群值分数:重新加权策略加强了自监督学习期间的内部优先级,而集成策略旨在改进网络不确定性的估计。换句话说,这两种策略利用非重叠方面进行分数细化。所以,使用重加权和集成的联合策略来实现更好的OD性能是很自然的。
在本文中,我们通过将重新启动重新加权策略与集成策略相结合来设计最终分数细化阶段(如补充材料第4节中的算法3所示)。请注意,这不是将重加权和集成结合起来的唯一形式,例如,也可以将在线重加权与集成结合起来。

3.6 Other Learning Paradigms for E3Outlier

Thus, this section will detail our solution to apply generative and contrastive learning paradigms to E3Outlier.

3.6.1 Generative E3Outlier

生成学习范式并不新鲜,因为基于AE的重建正是迄今为止在现有深度OD解决方案中最常用的方法。然而,如第3.2.3节所示,现有的生成解决方案往往表现不理想。由于自我监督被证明在区分性E3异常中出人意料地有效,我们本能地探索自我监督是否也能提高生成性深度OD的性能。

具体来说,我们的解决方案是在生成过程中添加更丰富的自我监督信息,以避免简单的输入重构。

受数据操作可以在SSD中提供丰富的自我监督信号这一事实的启发,我们提出了生成式自我监督学习(GSS)范式如下:

考虑具有KgK_gKg​种操作的数据操作集

Og={Og(⋅∣y)}y=1KgO_g=\{O_g(·| y)\}^{K_g}_{y=1}Og​={Og​(⋅∣y)}y=1Kg​​

Og中的数据操作可以通过各种方式定义,例如某些转换或获取输入数据的特定部分或模式。然后,我们从Og中提取两种不同的运算
Og(⋅∣y1)Og(·| y_1)Og(⋅∣y1​)和Og(⋅∣y2)Og(·| y_2)Og(⋅∣y2​)。给定输入数据x,需要两个运算来满足:

然后,生成DNN G(例如AEs、UNET[76]或GANs)

通过将Og(x | y1)作为输入,训练生成Og(x | y2),这相当于最小化以下目标:

很容易注意到,当等式(13)不满足时,等式(14)将退化为普通重建。当训练G时,可以根据MSE发电损失简单地获得x的异常值分数:


由于存在不同的操作选择方法,因此很自然地通过不同y1、y2配置的组合来训练模型并计算最终的异常值分数:

与基于声发射的深度OD方法所采用的平面重建相比,我们生成E3Outlier的关键是使DNN生成通过非相同操作获得的不同数据,这使得DNN的学习任务更具挑战性。这不仅避免了DNN简单地记忆低级细节,而且鼓励DNN通过学习两个不同数据的相关性来考虑高级语义,这可以被视为有价值的自我监督信息。我们的晚些时候的评估表明,当与其他基于重构的深度OD解决方案共享相同的生成DNN时,生成E3Outlier可以产生明显的性能改进。

更重要的是,生成E3Outlier可以很容易地应用于一些重要场景,其中输入数据可以分解为多个视图或模式。

例如,通常从外观和运动的角度来考虑视频数据。在这些情况下,不同数据视图/模式之间的对应本身就是有价值的自我监督信号,而生成的E3Outlier提供了一种方便直接的方法来利用这种语义。

作为演示,我们将在第4.3.2节中展示如何通过生成E3Outlier来设计新的无监督视频异常事件检测解决方案。

3.6.2 Contrastive E3Outlier

4 EXPERIMENTS

4.1 Experimental Settings

4.1.1基准数据集和评估
为了验证拟议框架的有效性,我们在五个常用的公共图像基准上进行了广泛的实验:MNIST(MST)[79]、时尚MNIST(FMST)[80]、CIFAR10(C10)[81]、SVHN(SH)[82]、CIFAR100(C100)[81]。我们遵循[8]、[9]、[46]等先前图像离群值去除工作所共享的标准程序,构建具有离群值的混合图像集:

给定一个标准的图像基准,来自具有一个常见语义概念(例如“马”、“包”)的类的所有图像都作为内联词进行检索,而异常值则通过异常值比率ρ从其余类中随机抽样。我们将ρ从5%变为25%,步长为5%。指定的内部值/异常值

OD方法完全不知道标签,仅用于评估。一个基准的每个类依次用作内联器,所有类上的性能平均为该基准数据集上的总体OD性能。由于所有图像在OD中都是未标记的,因此我们不使用序列/测试集的分割并将其合并用于实验。注意,对于CIFAR100数据集,我们使用了20个超类而不是原来的100个类,以确保构造的混合图像集包含足够的数据用于DNN的训练,

当内联有多个子类(CIFAR100中的每个超类包含5个类)时,它还可以测试OD性能。所有实验用不同的随机种子重复5次,以获得平均结果。原始像素直接用作输入,其强度归一化为[−1, 1]. 至于评估,我们采用接收器工作特性曲线下的常用面积(AUROC)和精度召回曲线下的面积(AUPR)作为阈值独立度量[83]。

4.3.2基于E3Outlier的UVAD解决方案的设计在我们为UVAD定做E3Outlier之前,我们注意到UVAD和以前的异常图像去除任务之间的两个重要区别:

  • 首先,尽管通过外观信息(例如结构和纹理)显示出区分性和对比性E3Outlier在检测异常图像方面非常有效,但正常和异常视频事件通常由UVAD中相同类型的受试者进行(例如,图9中的人)。换句话说,外观差异对UVAD不那么重要。

  • 其次,与静态图像不同,视频是通过外观和运动信息来描述的。由于运动是检测许多异常事件的关键,通常计算视频帧的光流图来描述视频中的运动。

因此,应该利用原始视频帧和光流图来提供自我监控。由于这些差异,我们自然转向生成E3Outlier来连接外观和运动视图。基于生成E3Outlier,设计的UVAD解决方案如下所示:

首先,我们遵循我们之前的SSVAD工作[90]来提取和表示视频事件:每个视频帧中的前景对象首先由一系列感兴趣区域(ROI)定位。

然后,根据每个RoI(目标检测实现)的位置,从当前帧和4个相邻帧中提取5个矩形面片。然后,将它们归一化为32×32,并堆叠为5×32×32时空立方体(STC)x=[p1;···;p5],其中pi是归一化面片(i=1,··,5)。

请注意,STC x用作视频事件的基本表示,因为它不仅描述前景对象,还包含其在时间间隔内的运动。为了应用生成E3Outlier,我们设计了类似[90]的运算O(·| y1)和O(·| y2):

这样,我们实际上定义了一个自监督学习任务,该任务旨在基于x的剩余面片p1、p2、p4、p5推断p3及其光流图。

我们简单地使用CAE来执行这个生成任务。

如第3.6.1节所述,我们可以根据等式(14)中的目标训练模型,并根据等式(15)对每个STC进行评分。

将两种O(·| y2)运算产生的分数归一化,然后求和以获得每个STC的最终分数。

一个框架上所有STC分数的最小值被视为框架分数。补充材料第5节提供了更多详细信息。

4.3.3 Performance Evaluation and Comparison 略

参考与更多

  • https://ieeexplore.ieee.org/abstract/document/9816125/
    添加链接描述

OOD : A Self-supervised Framework for Unsupervised Deep Outlier Detection e3笔记相关推荐

  1. Unsupervised Deep Anomaly Detection for Multi-Sensor Time-Series Signals-TKDE-A类-

    a25-2021-TKDE(A类)-无监督-Unsupervised Deep Anomaly Detection for Multi-Sensor Time-Series Signals-精度-基于 ...

  2. A Causal Debiasing Framework for Unsupervised Salient Object Detection

    背景知识 显著性检测 简单就是使用图像处理技术和计算机视觉算法来定位图片中最"显著"的区域.显著区域就是指图片中引人注目的区域或比较重要的区域,例如人眼在观看一幅图片时会首先关注的 ...

  3. Unsupervised Deep Image Stitching:首个无监督图像拼接框架(TIP2021)

    作者丨廖康@知乎 来源丨https://zhuanlan.zhihu.com/p/386863945 编辑丨3D视觉工坊 一.写在前面 图像拼接(Image Stitching)可以说是计算机视觉领域 ...

  4. 论文笔记:SESF-Fuse: an unsupervised deep model for multi-focus image fusion (2021)

    SESF-Fuse: an unsupervised deep model for multi-focus image fusion [引用格式]:Boyuan Ma et al. "SES ...

  5. UDT(【CVPR2019】Unsupervised Deep Tracking无监督目标跟踪)

    UDT是中科大.腾讯AI lab和上交的研究者提出的无监督目标跟踪算法.仔细阅读过这篇文章之后,写下一篇paper reading加深印象. 论文标题:Unsupervised Deep Tracki ...

  6. 【论文笔记】Unsupervised Deep Embedding for Clustering Analysis(DEC)

    [论文笔记]Unsupervised Deep Embedding for Clustering Analysis(DEC) 文章题目:Unsupervised Deep Embedding for ...

  7. UAINETS: FROM UNSUPERVISED TO ACTIVE DEEP ANOMALY DETECTION(译)

    UAINETS: FROM UNSUPERVISED TO ACTIVE DEEP ANOMALY DETECTION 匿名作者 双盲评审 译者:a易晴天 (最近边看边翻译一篇active anoma ...

  8. 论文中文翻译——SySeVR A Framework for Using Deep Learning to Detect Software Vulnerabilities

    本论文相关内容 论文下载地址--Web Of Science 论文中文翻译--SySeVR A Framework for Using Deep Learning to Detect Software ...

  9. 【论文阅读】Neural Transformation Learning for Deep Anomaly Detection Beyond Images 异常检测,可学习变换,时间序列,表格数据

    本博客系博主阅读论文之后根据自己理解所写,非逐字逐句翻译,预知详情,请参阅论文原文. 论文标题:Neural Transformation Learning for Deep Anomaly Dete ...

最新文章

  1. yum安装时报错,提示/var/run/yum.pid 已被锁定,解决办法
  2. linux 日志按大小切割_日志切割工具logrotate,帮你管理你的日志文件
  3. 黑马程序员-----集合框架类(四) 高级for循环、方法的可变参数及静态导入
  4. 解决stackoverflow打开慢不能注册登录
  5. JS组件系列——BootstrapTable+KnockoutJS实现增删改查解决方案(三):两个Viewmodel搞定增删改查
  6. -webkit-filter
  7. 密码学小知识(2):密码学三大顶会,信息安全四大顶会,网络与信息安全CCF推荐会议和期刊
  8. 闪存驱动器_什么是闪存驱动器?
  9. Homekit智能开关
  10. 侧脸生成正脸概论与精析(一)Global and Local Perception GAN
  11. python作者的诗_《全唐诗》Python文本分析
  12. 用canvas画布画时钟
  13. 8种在JavaScript数组中查找指定元素的方法(用于开发中数据的处理)
  14. 中后台管理系统之登录流程
  15. 一个有趣的游戏fizzbuzz
  16. 嵌入式实践教程--ASOC之Codec
  17. 公钥密码体系基于的数学难题
  18. python 创建一定区间内的满足正态分布的随机数
  19. 系统分析与验证课程笔记——目录
  20. also与apply区别

热门文章

  1. C语言实现简易商城交易功能
  2. [Bzoj2246]迷宫探险(概率+DP)
  3. C#开源资源大汇总nbsp;C#开源资源大汇…
  4. 免费商品信息查询接口(条形码)
  5. 解放CPU!耕昇GTX460实战3款CUDA软件
  6. 中国老年社会追踪调查(CLASS)数据及问卷
  7. 在线FLV播放器实现
  8. SPH算法简介(二): 粒子受力分析
  9. python基础——3、python应用(日期、文件、词云统计)——(YZ)
  10. 恒驰喜讯 | 荣誉奖项再+8!聚势沪上,共拓山海,2023年华为上海政企合作伙伴大会成功举办