Abstract

我们引入了一种新的3D目标proposal方法,称为Generative Shape Proposal Network(GSPN),用于点云数据中的实例分割。我们没有将目标proposal视为直接的边界框回归问题,而是采用综合分析策略,并通过从场景中的嘈杂观察中重建形状来生成proposal。我们将GSPN合并到一个名为基于区域的PointNet(R-PointNet)的新型3D实例分割框架中,该框架允许灵活的proposal细化和实例分割生成。我们在几个3D实例分割任务上实现了最先进的性能。GSPN的成功很大程度上来自于它在目标提议过程中对几何理解的强调,这大大减少了目标性低的proposals。

1. Introduction

实例分割是计算机视觉中的关键感知任务之一,它需要描绘场景中感兴趣的目标,并将目标分类到一组类别中。3D实例分割在机器人和增强现实中有大量的应用,目前有巨大的需求。然而,3D实例分割的进展远远落后于其2D对手[17,24,21],部分原因是直接将2D卷积神经网络(CNN)方法应用于3D体积数据的昂贵计算和存储成本[39,8]。最近,[33,34]提出了高效而强大的深度架构来直接处理点云,点云是最常见的3D传感器数据形式,在捕捉大场景中的细节方面非常高效。这为3D实例分割开辟了新的机会,并激励我们与3D点云一起工作。

2D实例分割的巨大进步很大程度上是由目标proposal方法[41]的成功推动的,其中目标proposal通常表示为2D边界框。因此,寻找一种在3D点云中表示和生成目标proposal的有效方法是很自然的。但是,这确实非常具有挑战性,因为3D目标proposal方法需要在传感器噪声严重和数据不完整的情况下,在杂乱的场景中建立对各种尺度的各种目标类别的语义和目标性的理解。一种直接的方法是直接估计目标的简单几何近似值,例如3D边界框[39, 48]。这些近似值很简单,并且对大多数目标不是很准确的,这意味着生成这样的proposal不需要对底层目标几何结构有深入的了解。这使得生成包含多个目标或仅包含目标一部分的blind box proposal变得容易,从而影响目标实例之间的区分。此外,我们几乎不知道3D目标提议者对目标性的理解程度。


图 1. 我们的实例分割框架R-PointNet的灵活性使其能够很好地处理各种类型的输入数据,包括(a)真实室内场景的完整重建,(b)具有细粒度部分实例的目标,©从单个视点捕获的部分点云。

相比之下,我们对目标proposal采取不同的观点,更加强调几何理解。人们普遍认为感知部分是有益的[18]。因此,我们利用综合分析策略,通过首先重建目标来提出目标。具体来说,我们利用生成模型来明确地描绘自然目标分布,并通过从目标分布中抽取样本来提出候选目标。场景中的嘈杂观察将通过指示在目标分布中的采样位置来指导proposal生成过程。这个想法在3D中特别有吸引力,因为与2D图像不同,目标在3D世界中更加规范,具有正确的物理比例和更完整的几何形状。结果,目标分布更加紧凑,使得捕获变得可行。

我们设计了一个名为Generated Shape Proposal Network(GSPN)的深度神经网络来实现这一目的。与直接3D边界框回归相比,GSPN的优势有两个。首先,它产生具有更高目标性的目标proposal。该网络经过明确训练,可以在生成任何proposal之前了解自然目标的外观。通过强制几何理解,我们可以大大减少不对应于单个目标的blind box proposal。其次,GSPN将噪声观察编码为自然目标空间中的分布,这可以被视为实例感知特征提取过程。这些特征描绘了目标边界,并且可以作为proposal细化和分割mask生成的非常重要的线索。

为了能够丢弃、接收和细化目标proposal并进一步分割出3D点云中的各种实例,我们开发了一种新的3D实例分割框架,称为基于区域的PointNet(R-PointNet)。从高层次上看,R-PointNet类似于图像Mask R-CNN[17];它包含目标proposal和目标分类、细化和分割组件。我们精心设计了R-PointNet,使其能够很好地使用非结构化点云数据,并充分利用GSPN生成的目标proposal和实例敏感特征。

我们已经在各种任务上测试了我们的实例分割框架R-PointNet和GSPN,包括完整室内重建的实例分割、部分室内场景的实例分割和目标部分实例分割。我们在所有这些任务上实现了最先进的性能。

我们工作的主要贡献如下:

  • 我们提出了一个Generative Shape Proposal Network,以按照分析-综合策略处理3D目标proposal。

  • 我们提出了一个灵活的3D实例分割框架,称为基于区域的PointNet,我们在几个实例分割基准上实现了最先进的性能。

  • 我们进行了广泛的评估和消融研究,以验证我们的设计选择并展示我们框架的普遍性。

2. Related Work

Object Detection and Instance Segmentation 最近,2D目标检测[10, 36, 35, 22, 23, 25]和实例分割[7, 17, 21, 31]取得了很大进展。R-CNN[11]首先将区域proposal与CNN相结合用于二维目标检测。在此之后,提出了包括Fast R-CNN[10]、Faster R-CNN[36]和Mask R-CNN[17]在内的一系列工作,以加速区域proposal,改进特征学习,并扩展实例的检测框架分割任务。

随着2D的这些进展,基于学习的3D检测和实例分割框架逐渐出现。人们主要关注3D目标边界框检测,其中目标proposal是必不可少的,并提出了不同的方法。 [39]直接将区域提议网络(RPN)[36]应用于体积数据,由于其高内存和计算成本而受到限制。 [8, 32, 48, 5, 45, 28]依赖于成熟的2D目标proposal方法,并从3D场景的投影视图中获取目标proposal。很难将这些方法应用于分割无法被少数视图完全覆盖的杂乱室内环境。此外,投影会丢失有关场景的信息,例如目标的物理尺寸,并在目标proposal中引入额外的困难,使其不如直接在3D中proposal目标有吸引力。作为3D实例分割学习的开创性工作,[42]提出了一种以形状为中心的方法来直接在3D点云中提出目标,其中点与学习的相似性度量进行分组以形成候选目标。然而,这种自下而上的分组策略并不能保证proposal具有高度的目标性。与以前的方法相比,我们的方法直接在3D中提出目标,并通过生成模型强调proposal目标性。

3D Generative Models 变分自动编码器(VAE)[19]是最流行的生成模型之一,通常用于图像或形状生成[14, 29]。它学习将自然数据样本x编码为潜在分布,其中可以提取样本并将其解码为初始数据形式。VAE显式地对数据分布进行建模,并通过最大化数据似然性来学习适当的参数化。然而,VAE无法对采样数据点添加控制,这通常会限制其使用。[38]中提出了一种称为条件变分自动编码器(CVAE)的扩展,其中生成也以某些属性为条件。

作为VAE和CVAE的替代方案,GAN[13]和CGAN[26]可以通过在鉴别器和生成器之间引入对抗性游戏来生成更准确的图像或形状。然而,众所周知,GAN存在模式崩溃问题,因为它没有明确地对数据似然性进行建模,而基于似然性的模型,例如VAE,通常可以捕获更完整的数据分布。我们利用CVAE而不是CGAN,因为它更符合平均条件。

作为VAE和CVAE的替代方案,GAN[13]和CGAN[26] 可以通过在鉴别器和生成器之间引入对抗性游戏来生成更忠实的图像或形状。然而,众所周知,GAN存在模式崩溃问题,因为它没有明确地对数据似然性进行建模,而基于似然性的模型,例如VAE,通常可以捕获更完整的数据分布。我们利用CVAE而不是CGAN,因为它更符合平均条件。

Deep Learning on Point Cloud 最近已经探索了各种3D表示[40, 43, 37, 47, 33, 34, 9]用于3D数据的深度学习。其中,点云表示由于其内存效率和直观性而变得越来越流行。我们使用一些现有的3D点云深度架构,例如PointNet/PointNet++[33, 34]和Point Set Generation网络[9]作为我们3D实例分割网络的基础。


图 2. GSPN的架构。在左侧,我们显示了GSPN中的数据流和关键构建块,以彩色矩形突出显示。每个构建块的详细架构如右图所示。

3. Method

我们提出了R-PointNet,这是一个3D目标实例分割框架,它与2D Mask R-CNN[17]共享类似的高级结构,但为非结构化点云数据精心设计。最重要的是,它利用了一个名为Generative Shape Proposal Network(GSPN)的网络,可以有效地生成具有高目标性的3D目标proposal。此外,我们的Point RoIAlign层旨在收集proposal的特征,允许网络细化proposal并生成分段。接下来,我们将解释我们网络的设计细节。

3.1. Generative Shape Proposal Network

GSPN将目标proposal过程视为目标生成,从以场景点云PPP和种子点sss为条件的自然目标的条件概率分布pθ(x∣c)p_{\theta}(x \mid c)pθ​(x∣c)中采样,其中ccc表示上下文对(P,s)(P, s)(P,s)。作为目标proposal生成的输出点云x~\tilde{x}x~近似于PPP中包含sss的目标xxx。这种方法使我们能够具体地看到某个目标proposal的样子,并了解网络是否学习了目标性。具体来说,我们将GSPN制定为条件变分自动编码器(CVAE)[38]。当用自然目标的潜在表示zzz将pθ(x∣c)p_{\theta}(x \mid c)pθ​(x∣c)近似为∫zpθ(x∣z,c)pθ(z∣c)dz\int_{z} p_{\theta}(x \mid z, c) p_{\theta}(z \mid c) d z∫z​pθ​(x∣z,c)pθ​(z∣c)dz时,通过从条件先验分布pθ(z∣c)p_{\theta}(z \mid c)pθ​(z∣c),然后通过生成分布pθ(x∣z,c)p_{\theta}(x \mid z, c)pθ​(x∣z,c)计算目标proposal x~\tilde{x}x~。pθ(z∣c)p_{\theta}(z \mid c)pθ​(z∣c)和pθ(x∣z,c)p_{\theta}(x \mid z, c)pθ​(x∣z,c)是通过最大化训练数据条件对数似然log⁡pθ(x∣c)\log p_{\theta}(x \mid c)logpθ​(x∣c)的以下变分下界来学习的:

L=Eqϕ(z∣x,c)[log⁡pθ(x∣z,c)]−KL(qϕ(z∣x,c)∥pθ(z∣c))(1)L=\mathbb{E}_{q_{\phi}(z \mid x, c)}\left[\log p_{\theta}(x \mid z, c)\right]-\mathrm{KL}\left(q_{\phi}(z \mid x, c) \| p_{\theta}(z \mid c)\right) \tag{1} L=Eqϕ​(z∣x,c)​[logpθ​(x∣z,c)]−KL(qϕ​(z∣x,c)∥pθ​(z∣c))(1)

其中qϕ(z∣x,c)q_{\phi}(z \mid x, c)qϕ​(z∣x,c)是近似真实后验pθ(z∣x,c)p_{\theta}(z \mid x, c)pθ​(z∣x,c)的proposal分布。

GSPN的架构如图2所示。两个子网络,先验网络和识别网络,分别将pθ(z∣c)p_{\theta}(z \mid c)pθ​(z∣c)和qϕ(z∣x,c)q_{\phi}(z \mid x, c)qϕ​(z∣x,c)参数化为具有预测均值和方差的高斯分布,并生成网络学习pθ(x∣z,c)p_{\theta}(x \mid z, c)pθ​(x∣z,c)。此外,中心预测网络用于集中上下文数据并分解位置信息。上下文对ccc由以sss为中心、K=3K = 3K=3个不同半径的球体裁剪PPP来表示,以覆盖具有各种尺度的目标(ck∈{1⋯K}c_{k \in\{1 \cdots K\}}ck∈{1⋯K}​将表示每个尺度中的上下文)。我们接下来解释每个子网络。

中心预测网络以上下文ccc作为输入,并在世界坐标系中回归对应目标xxx的中心ttt(中心是轴对齐的边界框中心)。该网络采用KKK个不同的PointNet,每个PointNet处理每个尺度ckc_{k}ck​的上下文并独立输出一个特征向量fckf_{c_{k}}fck​​,并将{fck}k=1K\left\{f_{c_{k}}\right\}_{k=1}^{K}{fck​​}k=1K​连接起来形成fcf_{c}fc​,通过多层感知器(MLP)馈送fcf_{c}fc​,并对质心位置ttt进行回归。在此之后,上下文c^\hat{c}c^以ttt为中心,转换后的上下文c^\hat{c}c^作为先前网络的输入。

先验网络采用相同的K-PointNet架构来处理以输入为中心的上下文c^\hat{c}c^,并通过MLP将级联特征fc^f_{\hat{c}}fc^​映射到pθ(z∣c)p_{\theta}(z \mid c)pθ​(z∣c)的高斯先验分布N(μz,σz2)\mathcal{N}\left(\mu_{z}, \sigma_{z}^{2}\right)N(μz​,σz2​)。识别网络与先验网络共享上下文编码器,它还使用一个居中的目标x^\hat{x}x^,并用另一个PointNet生成一个目标特征fx^f_{\hat{x}}fx^​。然后将fx^f_{\hat{x}}fx^​与上下文特征fc^f_{\hat{c}}fc^​连接并输入MLP以预测高斯proposal分布N(μz′,σz′2)\mathcal{N}\left(\mu_{z}^{\prime}, \sigma_{z}^{\prime 2}\right)N(μz′​,σz′2​),该分布对qϕ(z∣x,c)q_{\phi}(z \mid x, c)qϕ​(z∣x,c)进行参数化。

在使用先验网络预测pθ(z∣c)p_{\theta}(z \mid c)pθ​(z∣c)之后,我们对zzz进行采样并将其馈送到生成网络。同样,生成网络与先前网络共享上下文编码器。在将来自先前网络的上下文特征fc^f_{\hat{c}}fc^​与zzz连接后,它解码点云x~\tilde{x}x~以及表示每个生成点出现的可能性的每点置信度分数eee。对于解码,我们使用[9]中的点集生成架构,该架构具有两个并行分支、全连接(fc)分支和反卷积(deconv)分支,并采用两个输出的并集。生成的集中点云被移回其原始位置,预测目标中心为ttt。


图 3. 学习到的实例敏感特征的可视化。(a)通过首先将PCA应用于高维特征,然后将前三个维度转换为颜色图来显示上下文特征fc^f_{\hat{c}}fc^​。 (b)显示了预测的目标中心。 (b)中显示了不同实例的更清晰分离,这证实了这些特征是实例敏感的。

GSPN与Mask R-CNN类似,采用额外的MLP来预测每个proposal的目标性分数。目标性分数由轴对齐的边界框监督;positive proposal来自属于前景目标的种子点sss,并且它们的边界框与一些ground truth框重叠,并且联合交集(IoU)大于0.5。Negative proposal是那些与所有ground truth框的IoU小于0.5的proposal。

我们强调,在生成模型中分解出位置信息的中心预测网络在简化生成任务方面起着非常重要的作用,它允许与同一目标对应的上下文用相似的上下文特征fc^f_{\hat{c}}fc^​进行编码。我们将特征fc^f_{\hat{c}}fc^​称为实例敏感特征,并在图3中可视化它们的预测,其中可以观察到实例之间的明显差异。从现在开始,我们重载符号fc^f_{\hat{c}}fc^​以包含预测的目标中心ttt。我们还将在下一节展示这些实例敏感特征如何在进一步的proposal细化和目标分割中发挥作用。

Losses GSPN被训练以最小化为每个潜在目标proposal定义的多任务损失函数LGSPNL_{G S P N}LGSPN​。LGSPNL_{G S P N}LGSPN​是五个项的总和,包括形状生成损失LgenL_{g e n}Lgen​、形状生成每点置信度损失LeL_{e}Le​、KL损失LKLL_{K L}LKL​、中心预测损失Lcenter L_{\text {center }}Lcenter ​,和目标性损失LobjL_{o b j}Lobj​。我们使用生成的目标x~\tilde{x}x~和ground truth目标xxx之间的倒角距离作为生成损失LgenL_{g e n}Lgen​,它作为负对数似然−log⁡pθ(x∣z,c)-\log p_{\theta}(x \mid z, c)−logpθ​(x∣z,c)的替代。为了监督每点置信度预测,我们计算每个预测点到ground truth目标点云的距离。那些距离小于某个阈值ϵ\epsilonϵ的点被视为置信预测,而其他点则被视为不置信预测。 KL损失本质上强制proposal分布qϕ(z∣x,c)q_{\phi}(z \mid x, c)qϕ​(z∣x,c)和先验分布pθ(z∣c)p_{\theta}(z \mid c)pθ​(z∣c)相似。由于我们通过神经网络将qϕ(z∣x,c)q_{\phi}(z \mid x, c)qϕ​(z∣x,c)和pθ(z∣c)p_{\theta}(z \mid c)pθ​(z∣c)分别参数化为N(μz′,σz′2)\mathcal{N}\left(\mu_{z}^{\prime}, \sigma_{z}^{\prime 2}\right)N(μz′​,σz′2​)和N(μz,σz2)\mathcal{N}\left(\mu_{z}, \sigma_{z}^{2}\right)N(μz​,σz2​),因此KL损失可以很容易地计算为:
LKL=log⁡σz′σz+σz2+(μz−μz′)22σz′2−0.5(2)L_{K L}=\log \frac{\sigma_{z}^{\prime}}{\sigma_{z}}+\frac{\sigma_{z}^{2}+\left(\mu_{z}-\mu_{z}^{\prime}\right)^{2}}{2 \sigma_{z}^{\prime 2}}-0.5 \tag{2} LKL​=logσz​σz′​​+2σz′2​σz2​+(μz​−μz′​)2​−0.5(2)

LeL_{e}Le​使用平均二元交叉熵损失。Smooth L1损失[10]用作中心预测损失Lcenter L_{\text {center }}Lcenter ​。LobjL_{o b j}Lobj​也定义为平均二元交叉熵损失。

3.2. Region-based PointNet

在R-PointNet的第二部分,来自GSPN的目标proposal被进一步处理以识别目标类别,细化proposal,并从初始点云P分割proposal中的前景目标。我们首先通过从目标proposal中计算轴对齐的边界框来获得候选RoI(仅使用置信度得分eee大于0.5的点)。然后,从每个RoI中,我们的Point RoIAlign层提取区域特征,这些特征通过基于PointNet的分类、回归和分割子网络提供。如[36]中所做的那样,通过预测相对中心和大小变化来细化边界框,并且通过与[17]类似地预测每个类别标签的每点二进制mask来获得分割。我们在图4中可视化了R-PointNet的架构。R-PointNet被训练以最小化每个RoI中定义的多任务损失函数L=Lcls+Lbox+Lmask L=L_{c l s}+L_{b o x}+L_{\text {mask }}L=Lcls​+Lbox​+Lmask ​,这与[17]相同。接下来,我们解释R-PointNet的设计细节。

Feature Backbone 在计算每个RoI中的区域特征之前,我们首先使用来自在语义分割任务上预训练的网络的语义特征fsem f_{\text {sem }}fsem ​来增强GSPN的上下文特征fc^f_{\hat{c}}fc^​。具体来说,我们预训练了一个PointNet++,将每个点分类为具有4个样本和组层和4个特征插值层的目标类。然后,我们将每个点的语义特征作为每个样本和组层输出的组合,以捕获各种尺度的信息。由于点云在经过一个sample-and-group层后被下采样,为了覆盖PPP中的每个点,我们在每个sample-and-group层之后通过特征插值操作对特征集进行上采样;找到三个最近的点并用与距离成反比的权重进行插值。这使我们能够连接具有不同尺度的特征并为点形成超列[16]。上下文特征fc^f_{\hat{c}}fc^​和语义特征fsem f_{\text {sem }}fsem ​的连接构建了我们的特征主干,并且特征主干在下一个Point RoIAlign步骤中聚合。在消融研究4.4中,我们证明了上下文和语义特征在获得良好的实例分割方面都起着重要作用。

Point RoIAlign 为了在每个RoI中获得一个固定大小的特征图,我们的点RoIAlign层对配备了来自PPP的特征向量的NRoIN_{R o I}NRoI​点进行采样。由于上下文特征fc^f_{\hat{c}}fc^​的计算非常昂贵,实际上我们只计算一组种子点PsubP_{s u b}Psub​的特征,并使用前一段中描述的特征插值步骤获得采样点的特征。在点采样和特征提取之后,每个RoI被归一化为以(0,0,0)(0,0,0)(0,0,0)为中心的单位立方体。


图 4. R-PointNet的架构。对于场景中的每个种子点,GSPN将生成一个形状proposal以及实例敏感特征fc^f_{\hat{c}}fc^​。形状proposal被转换为轴对齐的3D边界框,其中Point RoIAlign可用于提取RoI特征以进行最终分割生成。除了实例敏感特征fc^f_{\hat{c}}fc^​,从预训练的PointNet++分割网络获得的语义特征也用于特征主干。

3.3. Implementation Details

在我们所有的实验中,我们首先训练GSPN和PointNet++语义分割网络,然后在R-PointNet训练期间固定它们的权重。

Training 在训练GSPN时,我们在每个mini-batch中为每个训练场景随机抽取512个种子点,这为我们提供了512个形状proposal。我们对这些形状proposal使用512点的分辨率。每个种子点周围的上下文被表示为场景的多尺度裁剪,其中裁剪半径被设置为使得最小尺度与场景中最小的目标实例相当,最大尺度大致覆盖最大的目标.为了预测每个种子点的目标中心,我们简单地回归从种子点到目标中心的单位方向向量以及两者之间的距离,类似于[44]。我们还采用KL-annealing[3]来稳定GSPN训练。

在R-PointNet的训练过程中,我们对所有目标提议应用非最大抑制[12],并保持最大数量的128个proposal进行训练。我们以与[17]相同的方式选择正和负RoI,其中正RoI是那些与ground truth边界框相交的IoU 大于0.5的那些,负RoI是那些与所有ground truth边界框的IoU小于0.5的那些。正负RoI之间的比率设置为1:3。

Inference 在推理期间,我们在每个测试场景中随机抽取2048个种子点,并在对RoI分类、细化和分割进行非最大抑制后最多保留512个 RoI。在 Titan XP GPU上消耗大约20k点的整个场景通常需要1秒。在每个RoI内获得二进制分割后,我们通过最近邻搜索将分割掩码投影回初始点云。 RoI之外的所有点都将从投影中排除。

5. Conclusion

我们提出了GSPN,一种用于在3D点云数据中进行实例分割的新型目标proposal网络。 GSPN生成具有高目标性的高质量目标proposal,这可以大大提高实例分割框架的性能。我们展示了如何将GSPN整合到一个新的3D实例分割框架中:R-PointNet,并在几个实例分割基准上实现最先进的性能。

原文链接:https://openaccess.thecvf.com/content_CVPR_2019/papers/Yi_GSPN_Generative_Shape_Proposal_Network_for_3D_Instance_Segmentation_in_CVPR_2019_paper.pdf

(CVPR 2019) GSPN: Generative Shape Proposal Network for 3D Instance Segmentation in Point Cloud相关推荐

  1. (NeurIPS 2019) Learning Object Bounding Boxes for 3D Instance Segmentation on Point Clouds

    Abstract 我们提出了一种新颖的.概念上简单的通用框架,用于在3D点云上进行实例分割.我们的方法称为3D-BoNet,遵循每点多层感知器(MLP)的简单设计理念.该框架直接回归点云中所有实例的3 ...

  2. CVPR 2020——OccuSeg: Occupancy-aware 3D Instance Segmentation

    OccuSeg: Occupancy-aware 3D Instance Segmentation Abstract (一)Introduction (二)Related Work (三)Method ...

  3. SGPN: Similarity Group Proposal Network for 3D Point Cloud Instance Segmentation

    摘要 我们介绍了相似性组提议网络(SGPN),这是一种用于点云上3D对象实例细分的简单直观的深度学习框架.  SGPN使用单个网络来预测点分组建议和每个建议的对应语义类,我们可以从中直接提取实例分割结 ...

  4. 两阶段3D目标检测网络 SIENet: Spatial Information Enhancement Network for 3D Object Detection from Point Cloud

    本文介绍一篇两阶段的3D目标检测网络:SIENet. 这里重点是理解本文提出的 Hybrid-Paradigm Region Proposal Network 和 Spatial Informatio ...

  5. (九:2020.08.27)CVPR 2019 追踪之论文纲要(译)

    CVPR 2019 追踪之论文纲要(修正于2020.08.28) 讲在前面 论文目录 讲在前面 论坛很多博客都对论文做了总结和分类,但就医学领域而言,对这些论文的筛选信息显然需要更加精细的把控,所以自 ...

  6. CVPR 2019 论文汇总(按方向划分,0409 更新中)[转载]

    转载链接:http://bbs.cvmart.net/topics/302/cvpr2019paper 作为计算机视觉领域三大顶会之一,CVPR2019(2019.6.16-6.19在美国洛杉矶举办) ...

  7. HCP Lab 12篇论文入选世界顶级计算机视觉会议 CVPR 2019

    本文由中山大学人机物智能融合实验室(HCP Lab)特约供稿.全球计算机视觉三大顶会之一 CVPR 2019 (IEEE Conference on Computer Visionand Patter ...

  8. 微软亚研院提出用于语义分割的结构化知识蒸馏 | CVPR 2019

    作者 | CV君 来源 | 我爱计算机视觉 今天跟大家分享一篇关于语义分割的论文,刚刚上传到arXiv的CVPR 2019接收论文<Structured Knowledge Distillati ...

  9. CVPR 2019 | 微软亚研院提出用于语义分割的结构化知识蒸馏

    点击我爱计算机视觉标星,更快获取CVML新技术 今天跟大家分享一篇关于语义分割的论文,刚刚上传到arXiv的CVPR 2019接收论文<Structured Knowledge Distilla ...

  10. 【论文简述及翻译】GWCNet:Group-wise Correlation Stereo Network(CVPR 2019)

    一.论文简述 1. 第一作者:Xiaoyang Guo 2. 发表年份:2019 3. 发表期刊:CVPR 4. 关键词:端到端训练.组相关体.改进的堆叠沙漏网络.3D卷积.回归 5. 探索动机:完全 ...

最新文章

  1. xshell筛选出字符串中的数字,计算网络流量
  2. mybatisplus执行sql语句_[MySQL]sql语句的执行流程
  3. Android中网络编程出错
  4. Spring Boot 中如何实现 HTTP 认证?
  5. Registered Nurse in the US
  6. Office - 安装程序找不到office.zh-cn\*.文件
  7. 缓存和数据库一致性问题,看这篇就够了
  8. Linux 基本命令(九)--vim 常用命令
  9. 夺命雷公狗---DEDECMS----23dedecms修改内容页面展示的信息
  10. 在 Go 语言中使用 Log 包--转自GCTT
  11. Multisim14简介与安装
  12. 0402 0603 0805 1206焊盘封装尺寸
  13. php 颜值测试源码,微软小冰颜值测试PHP最新代码
  14. 数据结构与算法(一):时间复杂度和空间复杂度
  15. 【云原生】Docker高级篇之网络、compose、可视化、监控
  16. java异常以及处理
  17. 洛杉矶凌晨4点-------启航
  18. Spark Container killed by YARN for exceeding memory limits. 11.1 GB of 11 GB physical memory used
  19. 条码打印机、色带、碳带的知识分享 | 条码打印机色带碳带的选购经验 | 鸿顺捷知识分享
  20. NVMe Protect Information

热门文章

  1. 2022.10.23高沿坪易地扶贫 霜降
  2. CS5216|DP转HDMI方案详解|分辨率1080P
  3. Capstone 专注HDMI转VGA DP转VGA DP转HDMI DP转LVDS TYPEC转HDMI拓展方案+设计PCB板图
  4. PostgreSQL安装异常:Problem running post-install step。
  5. UltralSO 软碟通制作U盘启动盘(图解详细 完美避坑)
  6. Photoshop对图片加边框
  7. 实习期间的一些思考整理(4)2018.4.14~4.16
  8. 一路向往有光亮的地方-2015年终总结
  9. SDCC编译器 + VSCode开发 8位微控制器
  10. Dubbo 线上 Thread pool is EXHAUSTED 问题跟踪