NeurIPS2021 MBT:多模态数据怎么融合?谷歌提出基于注意力瓶颈的方法,简单高效还省计算量...
关注公众号,发现CV技术之美
本文分享 NeurIPS 2021 论文『Attention Bottlenecks for Multimodal Fusion』,思考《MBT》多模态数据怎么融合?谷歌提出基于注意力瓶颈的方法,简单高效还省计算量。
详细信息如下:
论文链接:https://arxiv.org/abs/2107.00135
项目链接:未开源
导言:
人类通过同时处理和融合多种模态(如视觉和音频)的高维输入来感知世界。然而,机器感知模型通常是特定于模态的,并基于单模态数据进行优化,因此对每个模态预测的后期进行融合(“后期融合”)仍然是多模态视频分类的主要范式。在本文中,作者引入了一种基于Transformer的结构,该结构使用“融合瓶颈”结构进行多个模态的信息融合。
01
Motivation
能够同时进行多模态感知是人类学习的关键能力。然而,由于许多因素,设计用于模态融合的统一模型是具有挑战性的,因为模态之间的学习是动态变化的 ;某些模态比其他模态包含更多关于任务的信息;不同模态有专门的输入表示 。由于模态输入的差异,多模态融合的主导范式通常通过集成独立的视觉和听觉网络来融合信息,即,后期融合。
在这项工作中,作者提出了一种基于Transformer的视频视听融合模型。尽管最初被用于NLP任务,但最近Transformer逐渐成为了通用的感知模型,这是因为Transformer能够对token之间的密集相关性进行建模,同时对其输入进行很少的假设。
通过将密集的连续信号分成多个patch并将它们转换为一维的序列,Transformer已被证明在图像 (ViT ) 和视频分类 (ViViT ) 以及音频分类 (AST) 等领域具有不错的性能。由于这些模型能够处理可变长度的序列,因此常规的扩展是不需要改变Transformer的结构,可以直接将多模态patch的序列送到Transformer中。这种“早期融合”模型允许注意力在图像中的不同时空域之间自由建模,以及在音频频谱图中的频率和时间之间自由建模。
虽然理论上很有吸引力,但作者认为在模型的所有层完全成对的注意是不必要的,因为音频和视觉输入包含密集的、细粒度的信息,其中大部分是多余的。由于注意力机制具有和token序列长度长度相关的二次复杂度,这种模型也无法很好地扩展到较长的视频。为了缓解这种情况,作者在模型中提出了两种方法来限制注意力的流动。
第一种方法是多模态学习中的一种常见方法,即将跨模态流动限制在网络的后一层 ,前面的层采用单模态学习,这种方法被成为“中期融合”,如上图中的Mid Fusion所示。
第二种方法,也是本文的主要贡献点, 是限制层内token之间的跨模态注意。模型必须在与其他模态共享之前,对每个模态的信息进行整理和“浓缩”。核心思想是引入一小部分 “注意力瓶颈” 的潜在融合单元(如上图中的Bottleneck Fusion),层中的跨模态相互作用必须通过这些单元执行。作者证明了这种 “瓶颈” 结构优于其不受限制的版本,且计算成本较低。
02
方法
在本文中,作者提出了一个Multimodal Bottleneck Transformer (MBT)结构来融合多模态数据。
2.1 The ViT and AST architectures
ViT和AST采用了Transformer结构,能够处理序列特征。首先从RGB图像 (或音频频谱图) 中提取N个不重叠的patch ,然后将他们转换成一维的token ,如下所示:
这里,是一个线性投影,将每个token映射到;是一个特殊的token,作为分类任务的特征;是可学习的位置嵌入,用于表示输入特征的位置信息。
然后将token通过由L个Transformer层组成的编码器中。每个Transformer层由多头自注意 (MSA),层归一化 (LN) 和多层感知机 (MLP) 组成,表示如下:
其中操作为dot-product attention;queries, keys和values是同一个tensor的线性投影,表示为:。同理,两个跨模态输入attention操作表示为。
2.2 Multimodal Transformer
2.2.1 Fusion via Vanilla Self-Attention
普通的融合模型仅由应用于多模态输入的常规Transformer组成。对于给定长度为t秒的视频clip,首先统一采样个RGB帧,并将音频波形转换为单个谱图。然后用类似ViT中的方法,将帧和谱图转换成token,并将所有的token拼接在一起,成为一个序列。
形式上,如果从F个采样帧里面提出了个RGB patch 和个谱图patch , 则输入的token序列可以表示为,
其中,。对于RGB patch和谱图patch,作者采用了不同的投影函数。此外,还为每个模态分配了一个分类token。
然后在这些多模态token上采用Transformer层,以获取跨模态的融合信息。
2.2.2 Fusion with Modality-specific Parameters
此外,还可以将上面的模型推广到每个模态拥有各自独立的参数,,并利用注意力机制交互不同模态的信息:
其中交叉Transformer采用交叉注意操作。这层的操作也可以表示为:
注意,交叉Transformer层的参数 ,对于每个模态都是不同的。
2.2.3 Fusion via Attention Bottlenecks
为了克服attention的平方复杂度,作者在输入序列中引入了个瓶颈token ,输入序列如下所示:
然后,用这些瓶颈token来限制模型中的所有跨模态注意力。对于第层的Transformer,token计算如下:
其中,和通过Transformer层内的瓶颈token 交换信息。由于,因此融合过程的计算量可以大大降低。
2.3 Where to Fuse: Early, Mid and Late
在大多数Transformer(如ViT)中,每一层都由相同的操作组成的。然而,多模态学习中的一个常见范式是让网络的浅层进行模态内进行的增强,网络的深层进行多模态信息的交互。
基于这样的思想,作者首先用个标准的Self-Attention层来对模态内的token信息进行建模,然后再将所有的token进行拼接得到,用剩下的层进行跨模态token信息的融合。
如果,那么就对应“早期融合”;如果,那么就对应“晚期融合”;如果,那么就对应“中期融合”。表示为:
其中,代表上一节中提到的三种融合策略。
2.4 Classification
对于上述的所有模型,为了能够执行分类任务,需要将最后一层的CLS token和输入到线性层,然后将Softmax之后的结果进行平均得到分类结果。
03
实验
3.1. Fusion Strategies
上表展示了普通的交叉注意和本文提出的瓶颈注意,在不同时候的性能和计算量变化,可以看出,本文的方法明显优于普通的交叉注意。
上表展示了在Encoder中是否共享参数的结果,可以看出,不共享参数在比较小时能够达到更好的效果,当大于6时,两个方法的性能差不多。
3.2. Input Sampling and Dataset Size
上表展示了不同采样窗口大小的实验结果。
上表展示了同步采样策略和异步采样策略的实验结果。
3.3. Results
上表为音频数据集上,本文方法和其他SOTA方法的性能对比。
上表为Epic-Kitchens上,本文方法和其他SOTA方法的性能对比。
上表为VGGSound上,本文方法和其他SOTA方法的性能对比。
3.4. Visualisation
上图展示了Audioset videos数据集上,本文方法和普通融合的可视化结果,可以看出,本文方法的融合结果更加准确,更具备可解释性。
04
总结
在本文中,作者提出了一种视听融合的Transformer结构(MBT),并利用token间的交叉注意探索了多种不同的融合策略。为了提高计算小了,作者提出了一种新的融合策略,可以通过一小部分融合 “瓶颈” 来限制跨模态注意力,并证明这可以以较低的计算成本提高交叉注意力的性能,并在多个基准数据集上实现SOTA的结果。
▊ 作者简介
研究领域:FightingCV公众号运营者,研究方向为多模态内容理解,专注于解决视觉模态和语言模态相结合的任务,促进Vision-Language模型的实地应用。
知乎/公众号:FightingCV
END
加入「Transformer」交流群
NeurIPS2021 MBT:多模态数据怎么融合?谷歌提出基于注意力瓶颈的方法,简单高效还省计算量...相关推荐
- 文献阅读_基于多模态数据语义融合的旅游在线评论有用性识别研究
文献来源:马超,李纲,陈思菁,毛进,张霁.基于多模态数据语义融合的旅游在线评论有用性识别研究[J].情报学报,2020,39(02):199-207. 基于多模态数据语义融合的旅游在线评论有用性识别研 ...
- 论文 | 多传感器数据深度图的融合:最近基于深度学习的方法(上)
点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 编辑:Sophia 计算机视觉联盟 报道 | 公众号 CVLianMeng 转载于 :黄浴知乎,已获授权 htt ...
- 论文 | 多传感器数据深度图的融合:最近基于深度学习的方法(下)
点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 编辑:Sophia 计算机视觉联盟 报道 | 公众号 CVLianMeng 转载于 :黄浴知乎,已获授权 htt ...
- 迈向更高效通用的加速之路:谷歌提出视觉和多任务MoE方法
[专栏:前沿进展]近日,MoE家族又添两个新成员:V-MoE和Task MoE,由谷歌提出,能够显著提升计算机视觉和多任务学习模型的计算效率,进一步扩大模型的规模. MoE是近年来快速发展的一种模型加 ...
- 多模态数据融合系列文章大串讲(上)
文章目录 1. Mind's eye: A recurrent visual representation for image caption generation(CVPR2015) 2.LSTM ...
- 水环境模型与大数据技术融合研究
点击上方蓝字关注我们 水环境模型与大数据技术融合研究 马金锋1, 饶凯锋1, 李若男1,2, 张京1, 郑华1,2 1 中国科学院生态环境研究中心城市与区域生态国家重点实验室,北京 100085 2 ...
- 7 Papers Radios | GCN大佬公开博士论文;谷歌提出扩展型BERT架构
点击上方↑↑↑"视学算法"关注我 来源:公众号 机器之心 授权 本周的重要论文包括谷歌提出的扩展型 BERT 架构 Tapas,以及 GCN 作者的博士论文. 目录: SYNTHE ...
- 谷歌提出新型卷积网络EfficientNet:推理速度提升5.1倍,参数减少88%(附论文代码)...
来源:机器之心 本文共1500字,建议阅读8分钟. 谷歌提出了一种新型CNN网络EfficientNet,该网络具备极高的参数效率和速度. [ 导读 ]谷歌提出了一项新型模型缩放方法:利用复合系数统一 ...
- 谷歌提出新型卷积网络EfficientNet: 推理速度升5.1倍参数减少88%,需要我们的验证
推理速度升5.1倍参数减少88%:谷歌提出新型卷积网络EfficientNet 谷歌提出了一项新型模型缩放方法:利用复合系数统一缩放模型的所有维度,该方法极大地提升了模型的准确率和效率.谷歌研究人员基 ...
最新文章
- android 抛出异常,android - android Build.GetSerial()抛出异常 - 堆栈内存溢出
- cocos2d 屏幕適配_cocos2d-x 2.x屏幕适配基础
- python观察日志(part11)--管道及MD5文件比较
- 哪些行为会影响个人征信?
- Java 获取向量中的最大值
- php apache停止工作,phpStudy Apache 经常出现停止工作
- 华为云“创原会”:40+技术精英论道云原生2.0
- 添加 code snippets (转)
- Codeforces 510 E. Fox And Dinner
- mysql 8.0 yum_CentOS7使用yum安装MySQL8.0
- linux测试进程内存,怎么测试进程运行时的内存用量
- G711 G723 G729线路占多少带宽问题
- 使用Roslyn动态编译代码
- Eclipse将控制台输出信息保存为文件
- java 解析GZIP 和 Deflate 网页源文件
- 前端XSS 过滤--亲测有效
- Python的图像处理库(OpenCV,PIL,matplotlib和scikit-image)
- 基本的信号——冲激信号与冲激序列
- python基于django校园信息管理平台设计与实现(项目源码+视频录制+截图)
- 【DBC】DBC文件格式详解
热门文章
- 组态王调用mysql存储过程_组态王与数据库通讯
- VC2008 Windows Media Player控件的使用技巧 三
- CodeForces 1506C(暴力求最长连续子串) acm寒假集训日记21/12/31or22/1/1
- linux pae内核安装,Linux 安装PAE内核
- 5调色板怎么打开_CAD打开较大的图纸就卡死的解决方法
- 互联网和大数据是什么意思_大数据和互联网的区别是什么意思
- 客服端与服务器之间传输信息,QT实现客服端和服务器之间消息和文件交互
- ftp一直弹出用户名密码_不懂操作?手把手教你如何在linux下搭建FTP
- open wrt 跟换主题_换变速箱油的常见疑问解答
- 【生活资讯】5款好用的生活学习类APP