收录情况CVPR-2022
论文链接https://arxiv.org/abs/2112.03857
代码链接https://github.com/microsoft/GLIP

文章目录

  • 简介
    • 问题
    • 方案
    • 主要贡献
  • 相关工作
  • 方法
    • Grounded Language Image Pre-training
      • a、Unified Formulation
      • b、Language-Aware Deep Fusion
      • c、Pre-training with Scalable Semantic-Rich Data
  • 实验
    • GLIP variants
    • a、Zero-Shot and Supervised Transfer on COCO
    • b、Zero-Shot Transfer on LVIS
    • c、Phrase Grounding on Flickr30K Entities
  • 总结

简介

问题

Visual recognition 模型通常只能预测一组固定的预先确定的目标类别,这限制了在现实世界的可扩展能力,因为对于新的视觉概念类别和新的任务领域需要新的标注数据

CLIP可以在大量图像文本对上有效地学习 image-level 的视觉表征,因为大规模匹配的图像文本对包含的视觉概念比任何预定义的概念都更广泛,预训练的CLIP模型语义丰富,可以在 zero-shot 下轻松地迁移到下游的图像分类和文本图像检索任务中。

为了获得对图像的细粒度理解(如目标检测、分割、人体姿态估计、场景理解、动作识别、视觉语言理解),这些任务都非常需要 object-level 的视觉表征。

方案

这篇论文提出了 grounded language-image pretraining (GLIP) 模型,用于学习对象级、语言感知和语义丰富的视觉表征。GLIP将 object detection 和 phrase grounding 结合起来进行预训练。这有两个好处:1) GLIP可以同时从 detection 和 grounding 数据中训练学习,以改进两种任务,训练一个优秀的 grounding 模型;2) GLIP可以通过 self-training 的方式生成 grounding boxes来利用大量的图像文本对数据,使学习到的视觉表征具有丰富的语义。

实验上,作者对27M grounding data 进行预训练(包括3M人工注释和24M网络爬取的图像文本对)。训练学习到的视觉表征在各种目标级别的识别任务中都具有较强的zero/few shot迁移能力。1) 当直接在COCO和LVIS上评估(预训练期间没有训练COCO中的图像)时,GLIP分别达到 49.8 AP和 26.9 AP;2) 当在COCO上进行微调后,在val上达到 60.8 AP,在test-dev上达到 61.5 AP,超过了之前的SoTA模型。

主要贡献

1、Unifying detection and grounding by reformulating object detection as phrase grounding 改变了检测模型的输入:不仅输入图像,还输入 text prompt(包含检测任务的所有候选类别)。例如,COCO目标检测任务的 text prompt 是由80个COCO对象类别名组成的文本字符串,如图2(左)所示。通过将 object classification logits 替换为 word-region alignment 分数(例如视觉region和文本token的点积),任何 object detection 模型都可以转换为 grounding 模型,如图2(右)所示。与仅在最后点积操作融合视觉和语言的CLIP不同,GLIP利用跨模态融合操作,具有了深度的跨模态融合的能力。

2、Scaling up visual concepts with massive image-text data 给定 grounding 模型(teacher),可以自动生成大量图像-文本对数据的 grounding boxes 来扩充GLIP预训练数据,其中 noun phrases 由NLP解析器检测,图3为两个 boxes 的示例,teacher模型可以定位到困难的概念,如注射器、疫苗、美丽的加勒比海绿松石,甚至抽象的单词(视图)。在这种语义丰富的数据上训练可以生成语义丰富的student模型。

3、Transfer learning with GLIP: one model for all GLIP可以有效的迁移到各种任务中,而只需要很少甚至不需要额外的人工标注。此外,当特定于任务的标注数据可用时,也不必微调整个模型,只需微调特定于任务的 prompt embedding,同时冻结模型参数。

相关工作

标准的 object detection 模型只能推理固定的对象类别,如COCO,而这种人工标注的数据扩展成本很高。GLIP将 object detection 定义为 phrase grounding,可以推广到任何目标检测任务。

CLIP和ALIGN在大规模图像-文本对上进行跨模态对比学习,可以直接进行开放类别的图像分类。GLIP继承了这一研究领域的语义丰富和语言感知的特性,实现了SoTA对象检测性能,并显著提高了对下游检测任务的可迁移能力。

方法

Grounded Language Image Pre-training

在概念上,object detection 与 phrase grounding 具有很大的相似性,它们都寻求对对象进行本地化(即学习到并能检测这种对象的类别),并将其与语义概念对齐。

a、Unified Formulation

Background: object detection 标准的检测模型将一张图像输入 visual encoder(CNN或Transformer),提取 region/box 特征(图2底部),每个 region/box 特征输入两个 prediction heads,即分类器(分类损失)回归器(定位损失)。在两阶段检测器中,还有一个分离的RPN层用以区分前景、背景和改善anchors,因为RPN层没有用到目标类别的语义信息,我们将其损失合并到定位损失。

Object detection as phrase grounding 作者不是将每个 region/box 分类为c类,而是将检测任务重新定义为一个 grounding 任务,通过将每个 region 与文本 prompt(Prompt = “Detect: person, bicycle, car, … , toothbrush”) 中的c个phrases 进行 grounding/aligning(图2)。在 grounding 模型中,计算图像区域和prompt中的word之间的对齐分数:

其中 EncIEnc_{I}EncI 为图像编码器,EncLEnc_{L}EncL 为文本编码器,通过 SgroundS_{ground}Sground 和上一小节提到的分类损失、定位损失,共三个损失端到端进行训练。到这里,会有一个问题,如图2中间所示,子词的数量 MMM 是要大于文本 prompt 的 phrases 数量 ccc 的,这是因为:1)有一些phrase包含多个word,例如‘traffic light’;2)一些单词会切分为多个子词,例如‘toothbrush’会切分为‘tooth#’和‘#brush’;3)一些token为added token或special token,不属于要识别的类别;4)在token词表中会添加一个[NoObj] token。因此,如果一个phrase是正匹配某个visual region,便将所有子词正匹配,而将所有的added token负匹配所有的visual region,这样将原始的分类损失T∈{0,1}N×CT \in \{0,1\}^{N \times C}T{0,1}N×C扩展为T′∈{0,1}N×MT^{'} \in \{0,1\}^{N \times M}T{0,1}N×M

Equivalence between detection and grounding 通过上述方法,将任意detection 模型转化为grounding模型,且理论上训练和推理都是等价的。由于语言编码器的自由形式的输入,预训练的phrase grounding模型可以直接应用于任何目标检测任务。

b、Language-Aware Deep Fusion

在公式3中,图像和文本由单独的编码器编码,只在最后融合以计算对齐分数,这种模型为晚期融合模型,而在视觉语言任务中,视觉和语言特征的深度融合是必要的。因此,作者在图像和语言编码器之间引入了深度融合,融合最后几个编码层中的图像和文本信息,如图2(中)所示。具体来说,当使用DyHead作为图像编码器,BERT作为文本编码器时,深度融合编码器为:

跨模态交互由跨模态多头注意力(X-MHA)(4)实现,然后是单模态融合,并在(5)和(6)中更新。在没有添加上下文向量(视觉模态Ot2iiO^i_{t2i}Ot2ii和语言模态Pi2tiP^i_{i2t}Pi2ti)的情况下,模型即为后期融合模型。在跨模态多头注意力(XMHA)(4)中,每个head通过关注另一个模态来计算一个模态的上下文向量:

深度融合(4)-(6)有两个好处:1)提高了 phrase grounding 性能;2)使学习到的视觉表征是语言感知的,因此模型的预测是以文本prompt为条件的。

c、Pre-training with Scalable Semantic-Rich Data

GLIP模型可以在检测和更重要的grounding数据上进行训练,作者表明,grounding数据可以提供丰富的语义,以促进本地化,可以以self-training的方式扩展。

Grounding 数据涵盖了更多的视觉概念词汇,因此作者扩展了词汇表,几乎涵盖了 grounded captions 中出现的任何概念,例如,Flickr30K包含44,518个惟一的phrase,而VG Caption包含110,689个惟一phrase。

实验

GLIP variants


经过预训练,GLIP可以轻松地应用于 grounding 和 detection 任务,在三个基准上显示了强大的域迁移性能:1)COCO,包含80个类别;2)LVIS包含1000个类别;3)Flickr30K用以 phrase grounding任务。作者训练了5个GLIP变种模型(表1)用以消融,其中GoldG是指0.8M人类标注的grounding数据,包括Flickr30K, VG Caption和GQA,并且已经从数据集中删除了COCO图像,Cap4M和Cap24M是指网络收集的图文对。

a、Zero-Shot and Supervised Transfer on COCO


表2可以看到,GLIP模型实现了强大的zero-shot和有监督(即Fine-Tune)性能。GLIP-T©达到46.7 AP,超过了Faster RCNN,GLIP-L达到49.8 AP,超过DyHead-T。在有监督下,GLIP-T比标准DyHead提高5.5 AP (55.2 vs 49.7)。通过swin-large作为主干,GLIP-L超越了COCO上当前的SoTA,在2017val上达到了60.8 AP,在test-dev上达到了61.5 AP。

b、Zero-Shot Transfer on LVIS


表3可以看到,GLIP在所有类别上都展示了强大的zero-shot性能。

c、Phrase Grounding on Flickr30K Entities


带有GoldG(第3行)的GLIP-T实现了与带有GoldG+的MDETR相似的性能,这是因为引入了Swin Transformer、DyHead模块和深度融合模块。扩展训练数据的(GLIP-L)可以达到87.1 Recall@1,比之前的SoTA高出2.8点。

总结

GLIP将 object detectionphrase grounding 任务统一起来,以学习对象级的、语言感知的和语义丰富的视觉表征。在预训练之后,GLIP在完善的基准测试和13个下游任务的zero-shot和fine-tune设置方面显示了有竞争力的结果。

<<计算机视觉CVPR>>2022:Grounded Language-Image Pre-training相关推荐

  1. CVPR 2022 | 数据堂亮相计算机视觉领域盛会

    一年一度全球顶级的计算机视觉领域盛会 IEEE / CVF Computer Vision and Pattern Recognition Conference(以下简称"CVPR" ...

  2. CVPR 2022大会主席、港科大教授权龙:计算机视觉的现状与未来

    来源:AI科技评论 本文约5200字,建议10+分钟. 权龙教授发表了题为<三维视觉重新定义人工智能安防>的演讲. 近日,由雷锋网主办的第二届中国人工智能安防峰会在杭州召开. 峰会现场,香 ...

  3. CVPR 2022 最新106篇论文分方向整理|包含目标检测、动作识别、图像处理等32个方向

    CVPR 2022 已经放榜,本次一共有2067篇论文被接收,接收论文数量相比去年增长了24%.在CVPR2022正式会议召开前,为了让大家更快地获取和学习到计算机视觉前沿技术,极市对CVPR022 ...

  4. CVPR 2022 57 篇论文分方向整理 + 打包下载|涵盖目标检测、语义分割、人群计数、异常检测等方向

    CVPR2022论文速递系列: CVPR 2022 3月3日论文速递(22 篇打包下载)涵盖网络架构设计.姿态估计.三维视觉.动作检测.语义分割等方向 CVPR 2022 3月4日论文速递(29 篇打 ...

  5. CVPR 2022 | 阿里华科提出:针对场景文本检测的视觉语言模型预训练

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 点击进入-> CV 微信技术交流群 转载自:CSIG文档图像分析与识别专委会 本文简要介绍了发表于CV ...

  6. CVPR 2022 论文列表(持续更新)

    本文包括论文链接及代码 关注公众号:AI基地,及时获取最新资讯,学习资料 GitHub链接:GitHub - gbstack/cvpr-2022-papers: CVPR 2022 papers wi ...

  7. 何恺明一作MAE收录CVPR 2022 Oral!高达87.8%准确率!自监督领域新代表作

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 作者:happy   |  转载自:极市平台 导读 何恺明提出一种用于计算机视觉的可扩展自监督学习方案Mas ...

  8. CVPR 2022 | GEN-VLKT:基于预训练知识迁移的HOI检测方法

    近日,阿里巴巴大淘宝技术多媒体算法团队与计算机视觉青年学者刘偲教授团队合作论文:<GEN-VLKT: Simplify Association and Enhance Interaction U ...

  9. CVPR 2022 | 腾讯AI Lab入选论文解读,关注图像理解、生成、建模及可信AI

    感谢阅读腾讯AI Lab微信号第147篇文章.本文介绍腾讯 AI Lab 被 CVPR 2022 收录的研究成果. CVPR(Conference on Computer Vision and Pat ...

  10. 何恺明时隔2年再发一作论文:为视觉大模型开路,“CVPR 2022最佳论文候选预定”...

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 杨净 明敏 雷刚 发自 凹非寺 量子位 报道 | 公众号 QbitA ...

最新文章

  1. word分散对齐调整宽度_Word中文字很难对齐?有了这4个方法,2秒可对齐Word中所有文字...
  2. File文件操作(二):内存映射
  3. boost之timer,progress_timer,progress_display的介绍及使用
  4. [Winform]一个简单的账户管理工具
  5. 26 JSX深度剖析与使用技巧
  6. Python--递归
  7. 测地膨胀和膨胀重建—lhMorpRDilate
  8. Mac给Sublime Text 配置Python3开发环境
  9. 计算机电竞方向,关于电竞专业的就业方向
  10. 拓扑排序:如何确定代码源文件的编译依赖关系
  11. import torchvision报错,UserWarning: Failed to load image Python extension: Could not find module ‘C:\U
  12. 一文让你学会PC软件升级,学不会过来打我
  13. 人见人爱!收款码背后的原理是什么?
  14. SMTP错误码/建议解决方法
  15. Python获取 当前目录、上一级目录
  16. URLencode转换
  17. 刷机提示图像和设备不匹配_苹果用户一定要学会的刷机教程,包治百病
  18. 2020行业进阶趋势:传统IT式微已显而易见
  19. 【ZoomNet 解读】局部感知自适应缩放神经网络的三维目标检测
  20. 计算机设备驱动器空白文档,最新Wmdunh计算机基础知识(有试题和答案).docx

热门文章

  1. vue项目接口地址暴露_vue组件暴露和.js文件暴露接口的操作方法
  2. 一线城市高薪IT人和老家公务员,你觉得选哪个会更「香」?
  3. android转发短信到邮箱,Android手机使用Tasker转发短信及来电
  4. java程序设计课程培训心得体会_Java课程学习感想
  5. 软件测试——课程感想
  6. 【lzy学习笔记-dive into deep learning】数学预备 2.1-2.4
  7. Aras Innovator PLM二次开发
  8. python 判断区分字符串是否都是英文/中文
  9. win10重装系统后,蓝牙开关消失,点击添加蓝牙或其他设备,显示无法连接
  10. 云原生2.0时代,保险企业为何要迎智而上?