摘要

指代图像分割目的是从图像中分割出自然语言表达式指代的对象。我们表明,通过视觉transformer编码器网络中间层的语言和视觉特征的早期融合能够实现更好的跨模态对齐。通过在视觉特征提取编码阶段进行跨模态特征融合,我们可以利用transformer编码器中已被证明的相关建模能力提取有用的多模态上下文。通过这种方式可以获得正确的分割结果以及一个轻量级的掩码预测器。

一、介绍

图像特征与文本特征的融合策略包括循环交互、跨模态注意力、多模态图推理、语言结构引导的上下文建模等。最近通过一个跨模态transformer解码器(图1(a))学习有效的跨模态对齐取得了性能提升。

然而,跨模态交互只发生在特征编码之后,一个跨模态解码器只负责对齐视觉和语言特征。因此,以前的方法不能有效利用编码器中丰富的transformer层来挖掘有用的多模态上下文。为解决此问题,一种潜在的解决是利用一个视觉编码器网络在视觉编码期间共同嵌入语言和视觉特征。

据此,我们提出一种语言感知的视觉transformer网络(LAVT),其中视觉特征与语言特征被一起编码,在每个空间位置感知相关的语言上下文。如图1(b),LAVT在一个现代视觉Transformer主干网络中充分利用多阶段设计,形成了一种分层的语言感知视觉编码方案。具体地,我们通过一个像素-单词注意力机制密集地将语言特征整合进视觉特征中,这发生在网络的每个阶段。有益的视觉-语言线索然后被之后的transformer块利用,如[35],在下一个编码器阶段。这种方法使我们放弃一个复杂的跨模态解码器,因为提取的语言感知的视觉特征可以很容易地使用一个轻量级的掩码预测器获得准确的分割掩码。

本文的贡献如下:(1)我们提出了LAVT,一种基于transformer的参考图像分割框架,它可以执行语言感知的视觉编码来替代特征提取后的跨模态融合。(2)我们在参考图像分割的三个数据集上实现了最新的结果,论证了所提出方法的有效性和通用性。

二、相关工作

三、方法

图2论证了LAVT模型的结构,利用一个分层的视觉transformer来联合嵌入语言和视觉信息来促进跨模态对齐。

3.1 语言感知的视觉编码

我们使用一个深度语言表示模型编码输入表达式为高维的单词向量,将语言特征表示为L∈RCt×T,其中Ct和T分别表示通道数和单词数。

在获得语言特征之后,我们通过视觉Transformer层的分层共同进行视觉特征编码和视觉-语言(也被称为跨模态或多模态)特征融合,将其分为四个阶段。我们在自底向上的方向上使用i∈{1,2,3,4}索引每个阶段。每个阶段采用了一堆Transformer编码层(具有相同的输出大小)φi、一个多模态特征融合模块θi和一个可学习的门控单元ψi。在每个阶段,语言感知的视觉特征通过三个步骤被生成和定义。首先,Transformer层φi将前一阶段的特征作为输入,输出丰富的视觉特征,表示为Vi∈RCi×Hi×Wi。然后,通过多模态特征融合模块θi将Vi与语言特征L结合,生成一组多模态特征,记为Fi∈RCi×Hi×Wi。最后,Fi中的每个元素由可学习的门控单元ψi加权,然后将元素添加到Vi中,生成一组嵌入语言信息的增强视觉特征,我们将其表示为Ei∈RCi×Hi×Wi。我们将这最后一步中的计算称为语言路径。这里,Ci、Hi和Wi分别表示第i阶段的通道数量、特征图的高度和宽度。

Transformer编码层的四个阶段对应Swin Transformer中的四个阶段,这是一种有效的分层视觉主干,适合解决密集预测任务。每个阶段中的多模态特征融合模块是我们所提出的像素-单词注意力模块(PWAM),其设计目的是将语言意义与视觉线索密集对齐。门控单元就是我们所说的语言门(LG),这是我们设计的一个特殊单元,用于调节沿着语言路径(LP)的语言信息的流动。

3.2 像素-单词注意力模块

为从其背景中分离一个目标对象,将视觉与跨模态对象的语言表示对齐是重要的。一种通用的方法是结合每个像素的表示和参考表达的表示,并学习对参照类和背景类有区别的多模态表示。之前的方法已经发展了各种机制解决这一挑战,包括动态卷积、连接、跨模态注意力、图神经网络等。与大多以前的跨模态注意力机制相比,我们的像素-单词注意力模块(PWAM)产生了更小的内存占用,因为它避免计算两个图像大小的空间特征图的注意力权重计算,而且由于注意力步骤的减少也更简单。

图3为PWAM的原理图,给定输入视觉特征Vi∈RCi×Hi×Wi和语言特征L∈RCt×T,PWAM分两步进行多模态融合。首先,在每个空间位置,PWAM将单词维度的语言特征L聚合,生成特定位置的句子级特征向量,其收集了当前局部区域最相关的句子级特征向量。这步生成一组空间特征图Gi ∈ RCi×Hi×Wi 。具体地,我们通过如下得到Gi:

其中,ωiq、ωik、ωiv和ωiw都是投影函数。每个语言投影ωik和ωiv都实现为1×1与输出通道数Ci的卷积。查询投影ωiq和最终投影ωiw分别实现为1×1卷积,然后进行实例归一化,输出通道数为Ci。在这里,“flatten”是指将两个空间维度按row-major、C-style顺序展开成一个维度的操作,而“unflatten”指的是相反的操作。利用这两种操作和转换方法将特征映射转换为适当的形状进行计算。式1~5以视觉特征Vi为查询,以语言特征L为键和值,对查询投影函数ωiq和输出投影函数ωiw进行实例归一化,实现scaled点积注意力[55]。

其次,在得到与Vi形状相同的语言特征Gi后,我们将它们结合起来,通过元素级乘法生成一组多模态特征图Fi。具体来说,我们的步骤描述如下:

其中为元素级乘法,ωim和ωio分别为视觉投影和最终的多模态投影。这两个函数都被实现为1×1卷积,然后是ReLU[45]非线性。

3.3 语言途径

如前所述,在每个阶段,我们将来自PWAM,Fi的输出与来自transformer层,Vi的输出合并。我们将此融合操作中的计算称为语言途径。为了防止Fi压倒性的视觉信号和允许自适应的语言信息流到下一阶段的transfomer层,我们设计一个语言门学习一套元素级权值图基于Fi来重新缩放Fi中的每个元素。语言路径的示意图如图4,数学描述如下:

γi是一个两层感知器,第一层是1×1卷积,然后是ReLU[45]非线性,第二层是1×1卷积,然后是一个双曲正切函数。消融研究如表3,我们探究了有和没有使用一个语言门沿着语言路径,以及在语言门中不同的最终非线性激活函数,发现使用门和tanh最终非线性工作最适合我们的模型。式9中是利用预先训练好的视觉Transformer层进行多模态嵌入的一种有效方法,因为将多模态特征作为“补充”(或“残差”)进行处理,避免了破坏在纯视觉数据上预先训练好的初始化权值。在采用替换或连接的情况下,我们观察到了更糟糕的结果。

3.4 分割

我们结合多模态特征图,Fi,以自上而下的方式利用多尺度语义用于最终的分割,解码步骤可以通过以下递归函数来描述:

这里‘[;]’表示沿通道维度的特征连接,v表示通过双线性插值的上采样,ρi是一个投影函数,通过批归一化[26]和ReLU[45]非线性作为两个3×3卷积连接。最后的特征图Y1通过1×1卷积投影到两个类得分图中。

3.5 实现

LAVT中的变压器层通过来自Swin变压器[35]的ImageNet-22K[11]上预先训练的分类权值进行初始化。我们的语言编码器是基本的BERT模型,有12层,隐藏的大小为768,从[55](因此Ct在Sec。3是768),并使用官方的预先训练的权重进行初始化。Ci设置为512,模型以交叉熵损失进行优化。在[35]之后,我们采用了AdamW[38]优化器,权值衰减为0.01,初始学习率为0.00005,多项式学习率衰减。我们训练我们的模型为40epochs,批处理大小为32。我们在一个epoch中遍历每个对象(同时随机抽样一个引用表达式)。图像的大小被调整到480×480,没有数据增强技术被应用。在推理过程中,使用沿分数图的通道维度的argmax作为预测。

四、实验

五、总结

本文,我们提出一种语言感知的视觉Transformer框架(LAVT)用于参考图像分割,利用一个视觉transformer的多阶段设计共同编码多模态输入。在三个基准上的实验结果论证了它的优势。

2022: LAVT: Language-Aware Vision Transformer for Referring Image Segmentation相关推荐

  1. 【读点论文】A Survey on Vision Transformer,2022年华为诺亚最新综述研究,从发展到任务,整体到局部。ViT有研究价值在于有很多问题还没有解决,真理是阶段性的产物

    A Survey on Vision Transformer Abstract transformer最早应用于自然语言处理领域,是一种主要基于自注意机制的深度神经网络.由于其强大的表示能力,研究人员 ...

  2. 【TPAMI 2022】A Survey on Vision Transformer

    文章目录 WHAT Contents 2. Formulation of Transformer 2.1 Self-Attention 2.2 Other Key Concepts in Transf ...

  3. ViTDet:Exploring Plain Vision Transformer Backbonesfor Object Detection(arXiv 2022)

    最前面是论文翻译,中间是背景+问题+方法步骤+实验过程,最后是文中的部分专业名词介绍(水平线分开,能力有限,部分翻译可能不太准确) 探索用于目标检测的普通视觉Transformers骨干 在本文中,& ...

  4. 真香!Vision Transformer 快速实现 Mnist 识别

    作者 | 李秋键 出品 | AI科技大本营(ID:rgznai100) 引言:基于深度学习的方法在计算机视觉领域中最典型的应用就是卷积神经网络CNN.CNN中的数据表示方式是分层的,高层特征表示依赖于 ...

  5. V2X-ViT:基于Vision Transformer的V2X协同感知

    论文标题:V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision Transformer 发表期刊/会议:ECCV 2022 ...

  6. 基于Vision Transformer的图像去雾算法研究与实现(附源码)

    基于Vision Transformer的图像去雾算法研究与实现 0. 服务器性能简单监控 \LOG_USE_CPU_MEMORY\文件夹下的use_memory.py文件可以实时输出CPU使用率以及 ...

  7. VIT Adapter【Vision Transformer Adapter for Dense Predictions】论文笔记

    Vision Transformer Adapter for Dense Predictions 论文地址:2205.08534.pdf (arxiv.org) 代码地址:https://github ...

  8. 【文献阅读】VAQF: Fully Automatic Software-Hardware Co-Design Framework for Low-Bit Vision Transformer

    题目:VAQF: Fully Automatic Software-Hardware Co-Design Framework for Low-Bit Vision Transformer 时间:202 ...

  9. Towards Robust Vision Transformer论文学习(CVPR2022)

    论文: Mao, Xiaofeng, et al. "Towards robust vision transformer." Proceedings of the IEEE/CVF ...

  10. Vision Transformer在CV任务中的速度如何保证?

    本文作者丨盘子正@知乎    编辑丨极市平台 来源丨https://zhuanlan.zhihu.com/p/569482746 我(盘子正@知乎)的PhD课题是Vision Transformer的 ...

最新文章

  1. Java NIO系列教程(九) ServerSocketChannel
  2. Delphi - 对象构造浅析后续
  3. Cortex-M3基本知识点(手册)
  4. STM32的CAN总线的接收双FIFO使用方法
  5. html实战例子: 点击图片超链接跳转
  6. HDU 4121 Xiangqi (算是模拟吧)
  7. 视频光端机在安防监控工程中的常见技术问题
  8. 数据同步Sqoop用法之mysql与Hive导入导出
  9. jenkins手把手教你从入门到放弃01-jenkins简介
  10. The driver is automatically registered via the SPI and manual loading of the
  11. c语言 机器语言 汇编语言_多语言机器人新闻记者
  12. java自带的tree,最强最全的Tree命令详解
  13. opencv 使用 GPU 加速
  14. 同花顺炒股指标定制-K线只有红绿2个颜色怎么行?
  15. bookxnote手机版_bookxnote中文版下载
  16. [渝粤教育] 石家庄铁道大学 理论力学 参考 资料
  17. python halcon_HALCON高级篇:常用分类器及其特点
  18. 800行Python代码实现双十一自动登录抢购商品,这速度女友很爱
  19. 《计算机组成原理》第五章指令系统 部分课后习题答案 清华大学出版_秦磊华_谭志虎
  20. HBase 常用操作

热门文章

  1. ActivityScenario启动失败Activity never becomes requested state [RESUMED, STARTED, CREATED, DESTROYED]
  2. 15-mysql数据事务语言DTL
  3. 人工智能研究中心快递柜——代码分析四
  4. 五个方向告诉你如何运营好一个公众号!
  5. 华为智能家居app未能连接上远程云服务_华为智能家居APP上路由器离线怎么办_app无法管理路由器修复方法_全球下载...
  6. Java ClassLoader类加载机制(二)类加载器
  7. java语言基础 一张纸的厚度0.08mm,求对折对次之后能达到珠穆朗玛峰的高度(8844)用(循环求while)
  8. java string 加法_java 对String 加法计算
  9. 通过Windows任务计划 ,定期恢复虚拟机快照
  10. 数字人事系统 java_市国税局“数字人事”信息系统正式上线