论文名称:A Simple Framework for Contrastive Learning of Visual Representations
论文下载:https://arxiv.org/abs/2002.05709
论文代码:https://github.com/google-research/simclr
论文作者:Ting Chen, Simon Kornblith, Mohammad Norouzi, Geoffrey Hinton
论文年份:ICML 2020
论文被引:4008(2022/04/07)

Abstract

This paper presents SimCLR: a simple framework for contrastive learning of visual representations. We simplify recently proposed contrastive selfsupervised learning algorithms without requiring specialized architectures or a memory bank. In order to understand what enables the contrastive prediction tasks to learn useful representations, we systematically study the major components of our framework. We show that (1) composition of data augmentations plays a critical role in defining effective predictive tasks, (2) introducing a learnable nonlinear transformation between the representation and the contrastive loss substantially improves the quality of the learned representations, and (3) contrastive learning benefits from larger batch sizes and more training steps compared to supervised learning. By combining these findings, we are able to considerably outperform previous methods for self-supervised and semi-supervised learning on ImageNet. A linear classifier trained on self-supervised representations learned by SimCLR achieves 76.5% top-1 accuracy, which is a 7% relative improvement over previous state-ofthe-art, matching the performance of a supervised ResNet-50. When fine-tuned on only 1% of the labels, we achieve 85.8% top-5 accuracy, outperforming AlexNet with 100× fewer labels.

本文介绍了 SimCLR:一个用于视觉表示对比学习的简单框架。我们简化了最近提出的对比自监督学习算法,而不需要专门的架构或存储库。为了了解是什么使对比预测任务能够学习有用的表示,我们系统地研究了我们框架的主要组成部分。我们表明(1)数据增强的组合在定义有效的预测任务中起着关键作用,(2)在表示和对比损失之间引入可学习的非线性变换大大提高了学习表示的质量,以及(3)对比学习与监督学习相比,它受益于更大的批量和更多的训练步骤。通过结合这些发现,我们能够大大优于以前在 ImageNet 上进行自监督和半监督学习的方法。在 SimCLR 学习的自监督表示上训练的线性分类器实现了 76.5% 的 top-1 准确率,比以前的最先进技术提高了 7%,与有监督的 ResNet-50 的性能相匹配。当仅对 1% 的标签进行微调时,我们实现了 85.8% 的 top-5 准确率,在标签少 100 倍的情况下优于 AlexNet。

1. Introduction

在没有人工监督的情况下学习有效的视觉表示是一个长期存在的问题。大多数主流方法都属于以下两类之一:生成式或判别式生成方法学习在输入空间中生成或以其他方式建模像素(Hinton et al., 2006; Kingma & Welling, 2013; Goodfellow et al., 2014)。然而,像素级生成的计算成本很高,并且可能不是表示学习所必需的判别方法使用类似于监督学习的目标函数来学习表示,但训练网络执行前置任务(pretext task),其中输入和标签都来自未标记的数据集。许多此类方法都依赖于启发式方法来设计前置任务(Doersch et al., 2015; Zhang et al., 2016; Noroozi & Favaro, 2016; Gidaris et al., 2018),这可能会限制学习表示的普遍性基于潜在空间对比学习的判别方法最近显示出巨大的希望,实现了最先进的结果(Hadsell et al., 2006; Dosovitskiy et al., 2014; Oord et al., 2018; Bachman et al., 2019)。

在这项工作中,我们介绍了一个简单的视觉表示对比学习框架,我们称之为 SimCLR。 SimCLR 不仅优于以前的工作(图 1),而且更简单,既不需要专门的架构,也不需要内存(memory bank)。

为了了解什么能够实现良好的对比表示学习,我们系统地研究了我们框架的主要组成部分并表明:

  • 多个数据增强操作的组合对于定义产生有效表示的对比预测任务至关重要。此外,与监督学习相比,无监督对比学习受益于更强的数据增强
  • 在表示和对比损失之间引入可学习的非线性变换大大提高了学习表示的质量
  • 具有对比交叉熵损失的表示学习受益于归一化嵌入和适当调整的温度参数
  • 与监督学习相比,对比学习受益于更大的批量和更长的训练。与监督学习一样,对比学习也受益于更深更广的网络

我们结合这些发现,在 ImageNet ILSVRC-2012 (Russakovsky et al., 2015) 上实现了自监督和半监督学习的最新技术。在线性评估协议下,SimCLR 实现了 76.5% 的 top-1 准确率,比之前的最新技术提高了 7%(Hénaff et al., 2019)。当仅使用 1% 的 ImageNet 标签进行微调时,SimCLR 达到了 85.8% 的 top-5 准确率,相对提高了 10%(Hénaff et al., 2019)。当在其他自然图像分类数据集上进行微调时,SimCLR 在 12 个数据集中的 10 个数据集上的表现与强监督基线(Kornblith et al., 2019)相当或更好。

2. Method

2.1. The Contrastive Learning Framework

受最近对比学习算法的启发(参见第 7 节的概述),SimCLR 通过潜在空间中的对比损失最大化同一数据样本的不同增强视图之间的一致性来学习表示。如图 2 所示,该框架包括以下四个主要组件。

图 2. 视觉表示对比学习的简单框架。两个独立的数据增强算子从同一个增强族(t ~ T 和 t’ ~ T )中采样,并应用于每个数据样本以获得两个相关视图。基础编码器网络 f(·) 和投影头 g(·) 被训练以使用对比损失最大化一致性。训练完成后,我们丢弃投影头 g(·) 并使用编码器 f(·) 和表示 h 进行下游任务

  • 一个随机数据增强模块它随机转换任何给定的数据样本,从而产生同一样本的两个相关视图,表示为 xi~\tilde{x_i}xi​~​ 和 xj~\tilde{x_j}xj​~​,我们将其视为正样本对(positive pair)。在这项工作中,我们依次应用三个简单的增强:随机裁剪,然后调整回原始大小,随机颜色失真和随机高斯模糊。如第 3 节所示,随机裁剪和颜色失真的组合对于获得良好的性能至关重要

  • 从增强数据样本中提取表示向量的神经网络基础编码器 f(⋅)f(·)f(⋅)我们的框架允许在没有任何限制的情况下选择各种网络架构。我们选择简单并采用常用的 ResNet (He et al., 2016) 来获得 hi=f(xi~)=ResNet(xi~)h_i = f(\tilde{x_i}) = ResNet(\tilde{x_i})hi​=f(xi​~​)=ResNet(xi​~​),其中 hi∈Rdh_i ∈ R^dhi​∈Rd 是平均池化层之后的输出

  • 一个小型神经网络投影头 g(⋅)g(·)g(⋅)将表示映射到应用对比损失的空间。我们使用具有一个隐藏层的 MLP 来获得 zi=g(hi)=W(2)σ(W(1)hi)z_i = g(h_i) = W^{(2)} σ(W^{(1)}h_i)zi​=g(hi​)=W(2)σ(W(1)hi​),其中 σ 是 ReLU 非线性。如第 4 节所示,我们发现 在 ziz_izi​ 而非 hih_ihi​ 上定义对比损失是有益的

  • 为对比预测任务定义的对比损失函数。给定一个集合 {xk~}\{\tilde{x_k}\}{xk​~​},包括一对正例 xi~\tilde{x_i}xi​~​ 和 xj~\tilde{x_j}xj​~​,对比预测任务旨在为给定的 xi~\tilde{x_i}xi​~​ 识别 {xk~}k≠i\{\tilde{x_k}\}_{k \neq i}{xk​~​}k​=i​ 中的 xj~\tilde{x_j}xj​~​

我们随机抽取 N 个样本的 minibatch,并在从 minibatch 派生的增强样本对上定义对比预测任务,得到 2N 个数据点。我们没有明确地抽样负样本。相反,给定一对正例,类似于 (Chen et al., 2017),我们将小批量中的其他 2(N-1) 个增强样本视为负例。令 sim(u,v)=uTv/∣∣u∣∣∣∣v∣∣sim(u, v) = u^T v/ ||u|| ||v||sim(u,v)=uTv/∣∣u∣∣∣∣v∣∣ 表示 l2l_2l2​ 归一化 uuu 和 vvv 之间的点积(即余弦相似度)。则正样本对 (i,j)(i, j)(i,j) 的损失函数定义为:

其中 1[k≠i]∈{0,1}\mathbb{1} _{[k \neq i]} ∈ \{0, 1\}1[k​=i]​∈{0,1} 是一个指示函数,如果 k≠ik \neq ik​=i 则为 1,τ\tauτ 表示温度参数。最终损失是在一个小批量中跨所有正样本对计算的,包括 (i,j)(i, j)(i,j) 和 (j,i)(j, i)(j,i)。这种损失已在以前的工作中使用(Sohn, 2016; Wu et al., 2018; Oord et al.,
2018);为方便起见,我们将其称为 归一化温度缩放交叉熵损失(normalized temperature-scaled cross entropy loss,NT-Xent)

2.2. Training with Large Batch Size

为了简单起见,我们不用记忆库(memory bank)来训练模型 (Wu et al., 2018; He et al., 2019)。相反,我们将训练批次大小N从256变化到8192。一个8192的批大小给了我们16382个来自两个增强视图的每个正样本对的负样本。当使用具有线性学习率缩放的标准SGD/Momentum时,大批量的训练可能不稳定 (Goyal et al., 2017)。为了稳定训练,我们对所有批量使用LARS优化器(You et al.,2017)。我们使用TPU训练模型,根据批量大小使用32到128个内核。

Global BN。标准 ResNet 使用批量归一化(Ioffe & Szegedy,2015)。在具有数据并行性的分布式训练中,BN 均值和方差通常在每个设备本地聚合。在我们的对比学习中,由于正样本对是在同一设备中计算的,因此该模型可以利用局部信息泄漏来提高预测准确性,而无需改进表示。我们通过在训练期间聚合所有设备的 BN 均值和方差来解决这个问题。其他方法包括跨设备打乱数据样本(He et al., 2019),或用层归一化(layer norm)替换 BN(Hénaff et al., 2019)。

2.3. Evaluation Protocol

在这里,我们为实证研究制定了协议,旨在了解我们框架中的不同设计选择。

数据集和指标(Dataset and Metrics)。我们对无监督预训练(学习没有标签的编码器网络 f )的大部分研究都是使用 ImageNet ILSVRC-2012 数据集(Russakovsky et al., 2015)完成的。附录 B.9 中提供了一些关于 CIFAR-10 的额外预训练实验(Krizhevsky & Hinton,2009)。我们还在用于迁移学习的各种数据集上测试预训练结果。为了评估学习的表示,我们遵循广泛使用的线性评估协议(Zhang et al., 2016; Oord et al., 2018; Bachman et al., 2019; Kolesnikov et al., 2019),其中训练了线性分类器在冻结的基础网络之上,测试准确率用作表示质量的代理。除了线性评估之外,我们还与最先进的半监督和迁移学习进行了比较。

默认设置(Default setting)。除非另有说明,否则对于数据增强,我们使用随机裁剪和调整大小(随机翻转)、颜色失真和高斯模糊(详见附录 A)。我们使用 ResNet-50 作为基础编码器网络,使用 2 层 MLP 投影头将表示投影到 128 维潜在空间。使用 NT-Xent 损失函数,使用 LARS 进行优化,学习率为 4.8 (= 0.3 × BatchSize/256),权重衰减为 10−6。我们以 4096 的批大小训练 100 个 epoch。此外,我们对前 10 个 epoch 使用线性预热(linear warmup),并在不重新启动的情况下使用余弦衰减计划衰减学习率(Loshchilov & Hutter, 2016)。

3. Data Augmentation for Contrastive Representation Learning

Data augmentation defines predictive tasks. 虽然数据增强已广泛用于有监督和无监督表示学习,但它并未被系统地定义对比预测任务。许多现有方法通过改变架构来定义对比预测任务。例如,通过限制网络架构中的感受野来实现全局到局部的视图预测;通过固定的图像分割过程和上下文聚合网络实现相邻视图预测。我们表明,可以通过对目标图像执行简单的随机裁剪(调整大小)来避免这种复杂性,这会创建一系列包含上述两个的预测任务,如图 3 所示。这种简单的设计选择可以方便地将预测任务与其他组件,例如神经网络架构。可以通过扩展增强系列并随机组合它们来定义更广泛的对比预测任务。

3.1. Composition of data augmentation operations is crucial for learning good representations

数据增强操作的组合对于学习良好的表示至关重要

为了系统地研究数据增强的影响,我们在这里考虑几种常见的增强。一种类型的增强涉及数据的空间/几何变换,例如裁剪和调整大小(使用水平翻转)、旋转和剪切。另一种类型的增强涉及外观变换,例如颜色失真(包括颜色下降、亮度、对比度、饱和度、色调)、高斯模糊和 Sobel 滤波。图 4 可视化了我们在这项工作中研究的增强。

为了了解单个数据增强的效果和增强组合的重要性,我们研究了框架在单独或成对应用增强时的性能。由于 ImageNet 图像大小不同,我们总是应用裁剪和调整图像大小,这使得在没有裁剪的情况下很难研究其他增强。为了消除这种混淆,我们考虑了一种用于这种消融的非对称数据转换设置。具体来说,我们总是首先随机裁剪图像并将它们调整为相同的分辨率,然后我们将目标转换仅应用于图 2 中框架的一个分支,同时将另一个分支作恒等映射(即 t(xi) = xi)。请注意,这种非对称数据增强会损害性能。尽管如此,这种设置不应实质性地改变单个数据增强或其组成的影响。

图 5 显示了单个和组合变换下的线性评估结果。我们观察到,没有单一的转换能够学习良好的表示,即使模型几乎可以完美地识别对比任务中的正样本对。在组合增强时,对比预测任务变得更加困难,但表示的质量显着提高。附录 B.2 提供了关于组成更广泛的增强集的进一步研究。

一种增强组合脱颖而出:随机裁剪和随机颜色失真。我们推测,当仅使用随机裁剪作为数据增强时,一个严重的问题是图像中的大多数补丁共享相似的颜色分布图 6 显示仅颜色直方图就足以区分图像。神经网络可以利用这种捷径来解决预测任务。因此,为了学习可概括的特征,使用颜色失真进行裁剪是至关重要的

3.2. Contrastive learning needs stronger data augmentation than supervised learning

对比学习比监督学习需要更强的数据增强

为了进一步证明颜色增强的重要性,我们调整了颜色增强的强度,如表 1 所示。更强的颜色增强显着提高了学习无监督模型的线性评估。在这种情况下,AutoAugment (Cubuk et al., 2019) 是一种使用监督学习发现的复杂的增强策略,它并不比简单的裁剪 +(更强的)颜色失真效果更好。当使用相同的增强集训练监督模型时,我们观察到更强的颜色增强不会改善甚至损害它们的性能。因此,我们的实验表明,与监督学习相比,无监督对比学习受益于更强的(颜色)数据增强。尽管之前的工作报告说数据增强对自我监督学习很有用,但我们证明了数据增强对监督学习没有提高准确率但仍然可以极大地帮助对比学习

4. Architectures for Encoder and Head

4.1. Unsupervised contrastive learning benefits (more) from bigger models

图 7 显示,增加深度和宽度都可以提高性能。虽然类似的发现也适用于监督学习(He et al., 2016),但我们发现监督模型和在无监督模型上训练的线性分类器之间的差距随着模型大小的增加而缩小,这表明无监督学习比监督模型更受益于更大的模型

4.2. A nonlinear projection head improves the representation quality of the layer before it

非线性投影头提高了前一层的表示质量

然后我们研究包括投影头的重要性,即 g(h)。图 8 显示了对头部使用三种不同架构的线性评估结果:1)恒等映射; 2)线性投影,如之前的几种方法所使用的 (Wu et al., 2018); 3)带有一个附加隐藏层(和 ReLU 激活)的默认非线性投影,类似于 Bachman et al.,2019。我们观察到非线性投影优于线性投影(+3%),并且比无投影(>10%)好得多。当使用投影头时,无论输出尺寸如何,都可以观察到类似的结果。此外,即使使用非线性投影,投影头之前的层 h 仍然比之后的层 z = g(h) 好得多(>10%),这表明投影头之前的隐藏层是比之后的层更好的表示

我们推测在非线性投影之前使用表示的重要性是由于对比损失引起的信息丢失。特别是,z = g(h) 被训练为对数据转换保持不变。因此,g 可以删除可能对下游任务有用的信息,例如对象的颜色或方向。通过利用非线性变换 g(·),可以在 h 中形成和维护更多信息。为了验证这一假设,我们进行了使用 h 或 g(h) 的实验来学习预测预训练期间应用的转换。这里我们设置 g(h)=W(2)σ(W(1)h)g(h) = W^{(2)}σ(W^{(1)}h)g(h)=W(2)σ(W(1)h),具有相同的输入和输出维度(即 2048)。表 3 显示 h 包含有关应用的转换的更多信息,而 g(h) 丢失了信息。进一步的分析可以在附录 B.4 中找到。

5. Loss Functions and Batch Size

5.1. Normalized cross entropy loss with adjustable temperature works better than alternatives

具有可调温度的归一化交叉熵损失比其他方法效果更好

我们将 NT-Xent 损失与其他常用的对比损失函数进行比较,例如 logistic loss (Mikolov et al., 2013) 和 margin loss (Schroff et al., 2015)。表 2 显示了目标函数以及损失函数输入的梯度。从梯度来看,我们观察到 1)l2 归一化(即余弦相似性)连同温度有效地加权不同的示例,并且适当的温度可以帮助模型从硬负样本中学习;2) 不同于交叉熵,其他目标函数不通过它们的相对硬度来对负样本进行加权。因此,必须对这些损失函数应用半硬负挖掘(semi-hard negative mining) (Schroff et al., 2015):可以使用半硬负项(即,在损失范围内且距离最近,但比正例更远的项)计算梯度,而不是计算所有损失项的梯度

为了使比较公平,我们对所有损失函数使用相同的 l2归一化,我们调整超参数,并报告它们的最佳结果。表4显示,尽管(半硬)负挖掘有所帮助,但最佳结果仍然比我们默认的NT-Xent损失差得多。

接下来,我们在默认的 NT-Xent 损失中测试 l2 归一化(即余弦相似度与点积)和温度 τ 的重要性。表 5 显示,如果没有标准化和适当的温度缩放,性能会明显变差如果没有 l2 归一化,对比任务的准确性会更高,但在线性评估下得到的表示更差

5.2. Contrastive learning benefits (more) from larger batch sizes and longer training

更大的批量和更长的训练给对比学习带来的好处更多

图 9 显示了在针对不同数量的 epoch 训练模型时批量大小的影响。我们发现,当训练 epoch 的数量较少(例如 100 个 epoch)时,较大的批大小比较小的批具有显着优势随着更多的训练步骤/时期,不同批次大小之间的差距会减小或消失,前提是批次是随机重新采样的。与监督学习(Goyal et al., 2017)相比,在对比学习中,更大的批量提供更多的负样本,促进收敛(即为给定的准确度采取更少的时期和步骤)训练时间更长也会提供更多的负样本,从而改善结果。在附录 B.1 中,提供了更长训练步骤的结果。

6. Comparison with State-of-the-art

在本小节中,类似于 Kolesnikov et al. (2019);He et al. (2019),我们在 3 个不同的隐藏层宽度(宽度乘子为 1×、2× 和 4×)中使用 ResNet-50。为了更好地收敛,我们这里的模型训练了 1000 个 epoch。

线性评估。表 6 将我们的结果与线性评估设置中的先前方法进行了比较(参见附录 B.6)。表 1 显示了不同方法之间的更多数值比较。与以前需要专门设计的架构的方法相比,我们能够使用标准网络获得更好的结果。使用我们的 ResNet-50 (4×) 获得的最佳结果可以匹配监督预训练的 ResNet-50

半监督学习(Semi-supervised learning)。我们关注 Zhai et al. (2019) 并以类平衡的方式对标记的 ILSVRC-12 训练数据集的 1% 或 10% 进行采样(每类分别为 ~12.8 和 ~128 个图像)。我们只是在没有正则化的情况下根据标记数据微调整个基础网络(参见附录 B.5)。表 7 显示了我们的结果与最近方法的比较。由于对超参数(包括增强)的密集搜索,(Zhai et al., 2019) 的监督基线非常强大。同样,我们的方法在 1% 和 10% 的标签上都显着提高了最先进的水平。有趣的是,在完整的 ImageNet 上微调我们预训练的 ResNet-50(2×,4×)也明显优于从头开始训练(高达 2%,参见附录 B.2)。

迁移学习。我们在线性评估(固定特征提取器)和微调设置中评估了 12 个自然图像数据集的迁移学习性能。继 Kornblith et al. (2019) 之后,我们为每个模型-数据集组合执行超参数调整,并在验证集上选择最佳超参数。表 8 显示了 ResNet-50 (4×) 模型的结果。经过微调后,我们的自监督模型在 5 个数据集上显着优于监督基线,而监督基线仅在 2 个(即宠物和花卉)上优于监督基线。在其余 5 个数据集上,模型在统计上是相关的。附录 B.8 提供了完整的实验细节以及标准 ResNet-50 架构的结果。

7. Related Work

在小的变换下使图像表示彼此一致的想法可以追溯到 Becker & Hinton (1992)。我们通过利用数据增强、网络架构和对比损失方面的最新进展来扩展它。类似的一致性想法,但对于类标签预测,已经在其他环境中进行了探索,例如半监督学习 (Xie et al., 2019; Berthelot et al., 2019)。

手工制作的借口任务(Handcrafted pretext tasks)。最近自监督学习的复兴始于人工设计的借口任务,例如相对补丁预测 (Doersch et al., 2015)、解决拼图游戏 (Noroozi & Favaro, 2016)、着色 (Zhang et al., 2016) 和旋转预测(Gidaris et al., 2018; Chen et al., 2019)。尽管通过更大的网络和更长的训练可以获得良好的结果(Kolesnikov et al., 2019),但这些借口任务在一定程度上依赖于临时启发式,这限制了学习表示的普遍性

对比视觉表征学习(Contrastive visual representation learning)。追溯到 Hadsell et al. (2006),这些方法通过对比正样本对和负样本对来学习表示。沿着这些思路,Hadsell et al. (2006) 提出将每个样本视为由特征向量(以参数形式)表示的类。Wu et al. (2018) 提出使用内存库(memory bank)来存储实例类表示向量,这是最近几篇论文中采用和扩展的方法(Zhuang et al., 2019; Tian et al., 2019; He et al., 2019; Misra & van der Maaten, 2019)。其他工作探索了使用批量样本进行负采样而不是内存库(Doersch & Zisserman, 2017; Ye et al., 2019; Ji et al., 2019)。

最近的文献试图将他们方法的成功与潜在表示之间的互信息最大化联系起来(Oord et al., 2018; Hénaff et al., 2019; Hjelm et al., 2018; Bachman et al., 2019)。然而,尚不清楚对比方法的成功是由互信息决定的,还是由对比损失的具体形式决定的(Tschannen et al., 2019)

我们注意到,我们框架的几乎所有单个组件都出现在以前的工作中,尽管具体的实例可能不同。我们的框架相对于以前的工作的优越性不是由任何单一的设计选择来解释的,而是由它们的组成来解释的。我们在附录 C 中提供了我们的设计选择与之前工作的全面比较。

8. Conclusion

在这项工作中,我们提出了一个简单的框架及其用于对比视觉表示学习的实例化。我们仔细研究了它的组成部分,并展示了不同设计选择的效果。通过结合我们的发现,我们大大改进了以前的自监督、半监督和迁移学习方法。

我们的方法与 ImageNet 上的标准监督学习的不同之处仅在于数据增强的选择、在网络末端使用非线性头以及损失函数。这个简单框架的优势表明,尽管最近兴趣激增,但自监督学习仍然被低估了

【CV】对比学习经典之作 SimLR 论文笔记相关推荐

  1. 训练大规模对比学习的一些小笔记

    训练大规模对比学习的一些小笔记 FesianXu 20210815 at Baidu Search Team 前言 笔者在公司中会面对数以亿计的用户历史行为数据,用好这些数据是非常关键的.而最近流行的 ...

  2. 对比学习顶会论文系列-3-2

    文章目录 一.特定任务中的对比学习 1.2 摘要生成中的对比学习--SimCLS: A Simple Framework for Contrastive Learning of Abstractive ...

  3. 深度学习语义分割论文笔记(待完善)

    在深度学习这一块儿,我最开始使用Unet进行了冠状动脉血管的分割 再后来,我尝试改进Unet,改进损失函数,让网络能有不错的效果 再后来,看到了注意力机制,读了attention unet, 于是,我 ...

  4. CLIP Learning Transferable Visual Models From Natural Language Supervision (文本和图像的对比学习)--文献翻译和笔记

    论文链接:[2103.00020] Learning Transferable Visual Models From Natural Language Supervision (arxiv.org) ...

  5. 【CV】CVPR2021高光谱图像重建论文笔记

    论文名称:Deep Gaussian Scale Mixture Prior for Spectral Compressive Imaging 论文下载:link 论文年份:CVPR 2021 论文被 ...

  6. Deep Learning for Image and Point Cloud Fusion in Autonomous Driving: A Review(自动驾驶图像点云融合深度学习综述)论文笔记

    原文链接:https://arxiv.org/pdf/2004.05224.pdf II.深度学习的简要回顾 B.点云深度学习 本文将点云深度学习方法分为5类,即基于体素.基于2D视图.基于点.基于图 ...

  7. 机器学习新宠:对比学习论文实现大合集,60多篇分门别类,从未如此全面

    大家好,我是对白. 最近对比学习真的太火了,已然成为各大顶会争相投稿的一个热门领域,而它火的原因也很简单,就是因为它解决了有监督训练标注数据有限这个典型问题(这个问题在工业界非常滴常见).所以对比学习 ...

  8. 对比学习中的4种经典训练模式

    每天给你送来NLP技术干货! 来自:圆圆的算法笔记 对比学习是无监督表示学习中一种非常有效的方法,核心思路是训练query和key的Encoder,让这个Encoder对相匹配的query和key生成 ...

  9. 浅聊对比学习(Contrastive Learning)

    作者丨parasol@知乎 (已授权) 来源丨https://zhuanlan.zhihu.com/p/521614413 编辑丨极市平台 导读 本文通过解读对比学习的经典论文和综述,介绍对比学习的概 ...

最新文章

  1. Cell Research:华农解析水虻基因组图谱和肠道微生物组降解规律
  2. TCP与UDP区别小结
  3. linux xxd命令 十六进制显示文件
  4. 【SQL Server学习笔记】SQL SERVER 视图
  5. Shell命令-文件及目录操作之chattr、lsattr
  6. Java中如何将List拆分为多个小list集合
  7. html居右显示语言设置,iOS开发:纯代码设置UIButton文字居左或者居右显示
  8. 如何获得线程对象,获得Thread对象,得到线程对象,根据线程名获得线程对象,多线程取得线程对象...
  9. python持久化数据_Python数据持久化-mysql篇
  10. word-wrap、word-break、white-space
  11. JAVA数组批量设值(初始化)的办法
  12. 如何暴力破解wifi密码
  13. 美团饿了么外卖返利CPS公众号小程序话费加油团购源码淘客APP
  14. 从“Liskov替换原则”和“Refused Bequest”看“正方形为什么不能继承长方形”
  15. 天梯赛——L1-009 N个数求和 (20 分)
  16. 使用switch常量c语言,c语言switch(c语言switch语句用法)
  17. 四、Echart图表 之 颜色color配置项大全
  18. linux设置合上电脑,[转载]笔记本上装CentOS 7 设置合上盖子不休眠
  19. 基于ROS1.0的stdr simulation搭建多移动机器人(multiple robots)仿真系统
  20. tolua全教程-Chinar

热门文章

  1. 1454E - Number of Simple Paths
  2. qrcode 生成二维码,带logo 带文字描述
  3. (转)Oracle仓库管理系统(WMS)
  4. 七夕送什么给女朋友好?2022年送女朋友的七夕礼物推荐
  5. 微信公众号开通步骤详解
  6. 快速打造一款新款爆品可以这么做
  7. xctf攻防世界pwn基础题解(新手食用)
  8. 微信营销实战四:牛X的微博
  9. 1.1.2 计算机网络的组成
  10. PNI12927磁场强度传感器--金属检测实现方案