原文链接:https://bbs.cvmart.net/articles/3099
专注计算机视觉前沿资讯和技术干货
微信公众号:极市平台
官网:https://www.cvmart.net/

--------

论文 https://arxiv.org/pdf/2008.00490.pdf

代码 https://github.com/CWanli/RecoNet

香港中文大学等提出语义分割新方法:张量低秩重建。

提出背景:上下文信息在语义分割的作用很重要。目前的两种方法:一种是基于非局部自注意力对上下文信息进行收集。这种方法是用2D相似度矩阵描述3D上下文信息,但是这种空间压缩会导致通道方面的注意力的丢失。另一种方法是直接对上下文信息建模而不进行压缩,然而目前仍然没有成熟的方法。

基于以上两点,作者团队提出了一种对3D上下文表示建模的新方法,该方法不仅避免了空间压缩,而且还解决了高秩难题。作者的方法受到了张量正则-双峰分解理论(tensor canonical-polyadic decomposition theory)的启发。设计了一个从低到高的上下文重建框架。

大致流程:首先引入张量生成模块(TGM),该模块生成许多秩-1张量以捕获上下文特征片段,然后将秩-1张量送入本文的张量重构模块(TRM)进行处理,恢复高秩上下文特征。

最后通过实验证明,在各种公共数据集上都达到了SOTA。此外,在计算成本上,本文提出的方法的计算成本要低100倍以上。

1.引言

语义分割旨在给定一张图片的基础上对其进行像素级别的预测。这项任务的起始研究是FCN,即全卷积网络,另外还有一些其他的方法也达到了很好的效果。这些方法通过对上下文张量的元素重要性进行评级来对上下文表示建模。然而,这种方法得到的上下文特征缺少通道注意力,而通道注意力则是上下文的关键部分。

解决此问题的一个直观想法是直接构建上下文而不是使用2D相似度特征图。 然而,由于上下文特征的高秩属性,这种方法面临着很大困难。

因此,作者受到张量正则-双峰分解理论的启发,即,一个高阶张量可以表示为秩-1张量的组合。提出一种在不需要逐通道空间压缩的情况下对高秩上下文信息进行建模。图1表示整体流程

基本思想是:首先使用一系列低秩张量来收集上下文特征的片段,然后将其重建以重构细粒度的上下文特征。

本文的框架分为两个部分:秩-1张量生成模块(TGM)和高秩张量重建模块(TRM)

TGM模块:旨在通道,高度和宽度维度上生成秩-1张量,从而在具有低秩约束的不同视图中探索上下文特征。

TRM模块:采用张量规范-多态(CP)重构来重建高秩注意力特征图,其中基于不同视角的秩-1张量挖掘共现上下文信息。

本文的具体贡献是:

1.揭示上下文建模的新途径,即上下文从低秩到高秩的重建。

2.开发了新的语义分割框架RecoNet,该框架通过张量CP重建来探索上下文信息。 它不仅保持了空间和通道方面的注意力,而且还解决了高秩困难。

3.进行广泛的实验,将所提出的方法与其他各种公开数据集上的方法进行比较,从而获得显着的性能提升。 此外,RecoNet的计算成本也更低。

2.方法

2.1总览

受CP分解理论的启发,作者将上下文信息的建模分解为一系列低秩问题,这些低秩问题更易于处理。

模型的流程图如图2所示。模型由低阶张量生成模块(TGM),高阶张量重构模块(TRM)和全局池化模块(GPM)组成,以在空间和通道维度上获取全局上下文。 在语义标签预测之前使用双线性插值对模型输出进行上采样。

​ 图 2

形式化定义: 假设在C / H / W方向上有3r个向量vci∈RC×1×1,vhi∈R1×H×1v_{ci}∈R^{C×1×1},v_{hi}∈R^{1×H×1}vci​∈RC×1×1,vhi​∈R1×H×1和vwi∈R1×1×Wv_{wi}∈R^{1×1×W}vwi​∈R1×1×W,其中i∈ri∈ri∈r和r是张量的秩。这些向量是A∈RC×H×WA∈R^{C×H×W}A∈RC×H×W的CP分解片段,然后将张量CP 秩-r重建定义为:

其中,λiλ_iλi​是比例因子。

2.2 张量生成模块

作者首先给出基本定义,然后解释如何得到低秩张量。

上下文分片 定义上下文片段作为张量生成模块的输出,它指一些在通道,高度和宽度维度的秩1向量vciv_{ci}vci​,vhiv_{hi}vhi​和vwiv_{wi}vwi​。 每个上下文片段都包含一部分上下文信息。

特征生成器 定义三个特征生成器:通道生成器,高度生成器和宽度生成器。 每个生成器由Pool-Conv-Sigmoid序列组成。 在特征生成器中使用全局平均池化,以在C / H / W方向上获取全局上下文表示。

上下文分片生成 为了学习三个维度的上下文信息片段,在输入特征的顶部应用通道,高度和宽度生成器。 重复此过程r次,获得3r个可学习向量vci∈RC×1×1,vhi∈R1×H×1v_{ci}∈R^{C×1×1},v_{hi}∈R^{1×H×1}vci​∈RC×1×1,vhi​∈R1×H×1和vwi∈R1×1×Wv_{wi}∈R^{1×1×W}vwi​∈R1×1×W,其中i∈ri∈ri∈r 。所有向量均使用独立的卷积核生成。 每个向量都学习一部分上下文信息,并作为上下文片段输出。 TGM如图3所示。


TGM的非线性 添加非线性有两个原因。 首先,每个重新缩放的元素都可以看作是某种上下文特征的权重,它满足了注意力的定义。 其次,所有上下文片段都不应是线性相关的,以便它们中的每一个都可以代表不同的信息。

2.3 张量生成模块

这个部分主要介绍上下文重建与聚合的流程。整个重建过程基于公式1。首先来看上下文聚合

上下文聚合 TRM的目标是获得3D注意力特征图A∈RC×H×WA∈R^{C×H×W}A∈RC×H×W,从而在空间和通道注意力上保持响应。上下文特征是按元素乘积获得的。 给定输入特征X={x1,x2,...,xCHW}X = \{x_1,x_2,... ,x_{CHW}\}X={x1​,x2​,...,xCHW​}和上下文注意力特征图A={a1,a2,...,aCHW}A =\{a_1,a_2,... ,a_{CHW} \}A={a1​,a2​,...,aCHW​} ,细粒度的上下文特征Y={y1,y2,...,yCHW}Y = \{y_1,y_2,... ,y_{CHW}\}Y={y1​,y2​,...,yCHW​}则由下式给出:

其中每个ai∈Aa_i ∈ Aai​∈A表示被激活的xi∈Xx_i ∈ Xxi​∈X的扩展。

低秩重建 张量重建模块为了处理上下文的高秩属性。 TRM分为两步:首先,三个上下文分片vc1∈RC×1×1,vh1∈R1×H×1,vw1∈R1×1×Wv_{c1} ∈ R^{C×1×1},v_{h1} ∈ R^{1×H×1} , v_{w1} ∈ R^{1×1×W}vc1​∈RC×1×1,vh1​∈R1×H×1,vw1​∈R1×1×W合成一个秩-1子注意力特征图A1A_1A1​。(每个子注意力特征图表示一个低秩上下文信息)这个子注意力特征图表示3D上下文特征的一部分。然后,其他的上下文分片以同样的方式重建。最后使用权重均值聚合所有的子注意力特征图得到高秩张量:

其中λi∈(0,1)λ_i ∈ (0, 1)λi​∈(0,1)是可学习的正则化因子。通过公式2,3可以得到空间和通道细粒度的上下文特征。

2.4 全局池化模块

全局池化模块由一个全局平均池化操作和一个1x1卷积组成,旨在学习空间和通道两个维度的上下文特征。

2.5 网络细节

这里用ResNet作为骨干网络,在Res-4和Res-5输出的结果后使用膨胀策略,Res-5的输出特征标记为X,将TGM+TRM和GPM放到X的顶部。设置权重α为0.2,损失函数如下:

最后将X与TGM+TRM和GPM生成的上下文特征和全局上下文进行连接,进行最终的预测。

2.6 与之前方法的联系

这部分主要与之前的non-local和它的变体相比。本文的模型主要使用一元注意力。一元注意力广泛使用在图像分类和语义分割中,两种任务的典型代表:SENet,CBAM,DFN,EncNet。

SENet是RecoNet.最简单的形式,SENet的3D特征图ASE∈RC×H×WA_{SE }∈ R^{C×H×W}ASE​∈RC×H×W表示如下:

EncNet是SENet的升级版,也使用相同的空间权重。

CBAM中引入了不同的空间权重,将公式5进行拓展:

其中ACBAM∈RC×H×WA_{CBAM} ∈ R^{C×H×W}ACBAM​∈RC×H×W是CBAM.的3D注意力特征图。虽然在CBAM考虑到了空间注意力。但是,单一的秩-1张量ACBAMA_{CBAM}ACBAM​并不能对复杂的上下文信息进行建模。在本文中,将空间注意力使用CP分解理论变为两个秩-1张量,vh∈R1×H×1v_h ∈ R^{1×H×1}vh​∈R1×H×1和vw∈R1×1×Wv_w ∈ R^{1×1×W}vw​∈R1×1×W。于是,ACBAMA_{CBAM}ACBAM​就成了RecoNet的子注意力特征图。

RecoNet不仅利用了一元注意力的简洁性和有效性,而且能从多个角度对特征进行表示。

3 实验

主要使用5个数据集:PASCAL-VOC12, PASCAL-Context, COCO-Stuff, ADE20K,SIFT-FLOW

3.1实验设定

使用pytorch框架。使用同步批正则化。学习率设定为lr=base_lr×(1−itertotaliters)powerlr = base\_lr × (1 −\frac{iter}{total_iters})^{power}lr=base_lr×(1−totali​tersiter​)power.

在PASCAL-VOC12, PASCAL-Context,COCO-Stuff上将base_lr设为0.001。

ADE20K,SIFT-FLOW的base_lr分别为0.01,0.0025. power设为0.9,在SGD优化器中设置weight decay和momentum分别为0.0001和0.9.

在ADE20K和COCO-Stuff分别训练120 epoch,180 epoch,其他数据集训练80epoch。所有的数据集batch_size 为16,输入图片随机裁剪为512x512.

3.2 不同数据集上的结果

3.3 消融研究

​ 图5 注意力子特征图的可视化

​ 图 6 PASCAL-VOC12数据集的量化结果

4.总结

本文主要提出一个对于复杂上下文特征预测的低秩张量重建方法。它解决了之前的特征压缩的问题。亮点在于引入了CP分解理论,通过它来将低秩张量构建称高秩上下文特征,这样做可以得到空间和通道多维的信息。开发了新的语义分割框架RecoNet,该框架通过张量CP重建来探索上下文信息。 它不仅保持了空间和渠道方面的注意力,而且还解决了高秩困难。


关注极市平台公众号(ID:extrememart),获取计算机视觉前沿资讯/技术干货/招聘面经等

计算成本缩减100倍!港中文提出语义分割新方法:张量低秩重建|ECCV2020相关推荐

  1. 字节跳动实习生提出实例分割新方法:性能超过何恺明Mask R-CNN

    乾明 十三 发自 凹非寺 量子位 报道 | 公众号 QbitAI 框架更简单,但实现了比Mask R-CNN还好的性能. 这是字节跳动实习生提出的实例分割新方法,名为SOLO. 核心在于通过引入&qu ...

  2. seq2seq模型_推断速度达seq2seq模型的100倍,谷歌开源文本生成新方法LaserTagger

    使用 seq2seq 模型解决文本生成任务伴随着一些重大缺陷,谷歌研究人员提出新型文本生成方法 LaserTagger,旨在解决这些缺陷,提高文本生成的速度和效率. 选自arXiv,作者:Eric M ...

  3. 推断速度达seq2seq模型的100倍,谷歌开源文本生成新方法LaserTagger

    选自arXiv 作者:Eric Malmi等 机器之心编译 序列到序列(seq2seq)模型给机器翻译领域带来了巨大变革,并成为多种文本生成任务的首选工具,如文本摘要.句子融合和语法纠错.模型架构改进 ...

  4. 何恺明组又出神作!最新论文提出全景分割新方法

    ↑ 点击上方[计算机视觉联盟]关注我们 来源:arXiv 作者:Alexander Kirillov et. al. 编辑:肖琴 Facebook人工智能实验室(FAIR)何恺明等人团队在arXiv发 ...

  5. 何恺明、陈鑫磊新研究:提出实例分割新方法,效果比肩Mask R-CNN

    https://www.toutiao.com/a6674769574212141579/ 何恺明大神的团队又有新研究了! 这一次,Facebook的陈鑫磊.何恺明等人,又从全新的角度,再次解决了实例 ...

  6. 全能型AI!用通用预训练感知模型处理多模态多任务!商汤西交港中文提出:Uni-Perceiver...

    关注公众号,发现CV技术之美 本文分享论文『Uni-Perceiver: Pre-training Unified Architecture for Generic Perception for Zer ...

  7. 国科大港中文提出带视觉语言验证和迭代推理的Visual Grounding框架,性能SOTA,代码已开源!(CVPR2022)...

    关注公众号,发现CV技术之美 本文分享 CVPR 2022 的一篇论文『Improving features Visual Grounding with Visual-Linguistic Verifi ...

  8. 点云的密度 曝光时间_200倍的提速!华人博士生提出大场景三维点云语义分割新框架...

    [新智元导读]今天分享一篇被今年CVPR接收的论文.该文提出的算法可以高效处理百万量级的点组成的大场景3D点云,同时计算效率高.内存占用少,能直接处理大规模点云,不需要复杂的预处理/后处理,比基于图的 ...

  9. ICCV2021 比MoCo更通用的对比学习范式,中科大MSRA提出对比学习新方法MaskCo

    关注公众号,发现CV技术之美 今日分享 ICCV2021论文『Self-Supervised Visual Representations Learning by Contrastive Mask P ...

最新文章

  1. java流的写法_java IO-过滤流类的写法
  2. python中文字符编码问题
  3. Visual Studio 智能提示功能消失解决办法
  4. Spring/MVC映射WEB-INF下的文件(img、css、js等)
  5. gprs模块ftp 远程升级_基于GPRS无线通信技术的冷链监测系统
  6. PostgreSQL 12系统表(5)pg_index
  7. Android 应用基础知识(6)---本地化
  8. 拟牛顿法/Quasi-Newton,DFP算法/Davidon-Fletcher-Powell,及BFGS算法/Broyden-Fletcher-Goldfarb-Shanno...
  9. koa 接口返回数据_node和koa实现数据mock接口
  10. 美国国土安全部发布针对高风险铁路基础设施的强制性安全要求
  11. [转]myeclipse 8.5最新注册码(过期时间到2016年)
  12. Exchange 2010分层通讯薄(HAB)配置指南
  13. 【项目简介】LinkWeChat:基于企业微信开源系统
  14. 计算机术语中bug指的是,你知道电脑漏洞为什么叫bug吗?
  15. LaTeX新手半小时速成手册(不速成你打我
  16. CHD的impala实现hive和hbase数据查询
  17. 第八届蓝桥杯全国总决赛真题解析
  18. android switch 字体颜色,Switch的简单设置颜色
  19. 基于Php美妆化妆品商城购物网站
  20. 解决 撤销键 Ctrl+Z 不能撤销的问题

热门文章

  1. platform 平台驱动——设备的写作流程
  2. python基础07_tuple_dict
  3. 【Oracle】PL/SQL Developer使用技巧(持续更新中)
  4. Spring Boot 使用slf4j+logback记录日志配置
  5. Linux 重新挂载分区的方法
  6. 用linux构建路由器
  7. SL2_RedSkin
  8. 蛋白质导论: 结构,功能和运动,第二版 Introduction to Proteins : Structure, Function, and Motion, Second Edition
  9. 机器人学习--卡尔曼滤波及各种滤波解析
  10. macOS配置Visual Studio Code开发Java项目