目录

  • 1. 简介
  • 2. 创新点
  • 3. 模型描述
    • 3.1 Low Rank Fusion
    • 3.2 Multimodal Transformer
      • 具体模块介绍
        • Temporal Convolutions
        • Positional Embedding (PE)
        • Crossmodal Attention (core)
        • Crossmodal Transformers
        • Self-Attention Transformers and Prediction
  • 4. Experiment

1. 简介

前面文章提到基于张量低秩分解进行多模态的融合,今天介绍的文章则结合多模态 Transformer (MulT) [1]低秩矩阵分解 (Low Rank Matrix Factorization, LMF)[2] 来处理多模态融合的问题,并且相对减少了跨模态 Transformer 的个数,没有引起过度的参数化。

本文内容包括了两篇文章的内容:

  1. Low Rank Fusion based Transformers for Multimodal Sequences ( LMF-MulT )
  2. Multimodal transformer for unaligned multimodal language sequences ( MulT )

2. 创新点

  • MulT方法 [1] 中有3个 unimodal transformer 和 6 个 bimodal transformer,但是没有 trimodel 。本文方法比 mulT 使用更少的 transformer 来得到多模态表示

  • 提出两种方法

    • LMF-MulT:通过3个模态的注意力加强融合表示。
    • Fusion-Based-CM-Attn:通过融合信号并行加强单个模态表示。
  • 利用低秩矩阵分解的方法 (LMF) 通过近似张量融合来捕获所有单个模态、双模态以及三模态之间的交互。

  • 文章可以处理对齐和非对齐的序列。可以对非对齐序列进行建模的能力是有利的,因为文章依赖的是基于学习的方法,而不是使用强制信号同步的方法(需要额外的时间信息)来模仿人类多模态语言表达的协调性。

3. 模型描述

3.1 Low Rank Fusion

  • LMF(low-rank matrix factorization)[2]:是一种张量融合方法,通过使用低秩分解因子来进行张量融合,避免了直接张量相成进行融合导致的高维问题,更多关于LMF的介绍可以看下这篇文章。

输入张量 Z∈Rd1×d2×...×dm\mathcal{Z} \in \mathbb{R}^{d_1 \times d_2 \times...\times d_m}ZRd1×d2×...×dm 通过一个线性层 g(⋅)g(\cdot)g() 产生一个向量表示:
h=g(Z;W,b)=W⋅Z+b;h,b∈Rdyh = g(\mathcal{Z};\mathcal{W},b) = \mathcal{W} ⋅ \mathcal{Z} + b;~h, b \in \mathbb{R}^{d_y}h=g(Z;W,b)=WZ+b;h,bRdy
其中 W\mathcal{W}W 是权重, bbb 是偏移量。

基于 W\mathcal{W}W 的分解,再根据 Z=⨂m=1Mzm\mathcal{Z}=\bigotimes_{m=1}^{M} z_{m}Z=m=1Mzm ,可以把计算 hhh 的式子推算如下:

h=(∑i=1r⨂m=1Mwm(i))⋅Z=∑i=1r(⨂m=1Mwm(i)⋅Z)=∑i=1r(⨂m=1Mwm(i)⋅⨂m=1Mzm)=⋀m=1M[∑i=1rwm(i)⋅zm]\begin{aligned} h &=\left(\sum_{i=1}^{r} \bigotimes_{m=1}^{M} \mathbf{w}_{m}^{(i)}\right) \cdot \mathcal{Z} =\sum_{i=1}^{r}\left(\bigotimes_{m=1}^{M} \mathbf{w}_{m}^{(i)} \cdot \mathcal{Z}\right) \\ &=\sum_{i=1}^{r}\left(\bigotimes_{m=1}^{M} \mathbf{w}_{m}^{(i)} \cdot \bigotimes_{m=1}^{M} z_{m}\right) \\ &=\bigwedge_{m=1}^{M}\left[\sum_{i=1}^{r} \mathbf{w}_{m}^{(i)} \cdot z_{m}\right] \end{aligned}h=(i=1rm=1Mwm(i))Z=i=1r(m=1Mwm(i)Z)=i=1r(m=1Mwm(i)m=1Mzm)=m=1M[i=1rwm(i)zm]

如果通过计算Z\mathcal{Z}Z再得到hhhmmm个模态Z\mathcal{Z}Z的维度就是d1×d2×...×dmd_1 \times d_2 \times...\times d_md1×d2×...×dm,这种低秩分解代替原来的向量相成的方法,可以直接得到hhh,不用计算高维的Z\mathcal{Z}Z,使得可以轻松扩展到模态数较多的情况。

3.2 Multimodal Transformer

在基于 Transformers 的序列编码的基础上,利用 Tsai [1] 的 multiple cross-modal attention blocks 模块,然后用 self-attention 来编码多模态序列做分类。

  • 早期工作关注一个模态到另外一个模态的潜在适应。文本关注利用single-head 和 cross-modal attention 实现潜在多模态融合表示与单个模态之间的适应。
  • LMF 后加时间卷积。

文章这里用了两种框架:
第一种框架是LMF得到的融合表示和每个模态表示之间建立一个跨模 transformer,然后利用融合表示加强单个模态的表示,最后将每个模态的表示连接在一起获得一个统一的表示去做后续的任务。

第二种框架是通过LMF得到的多模态融合表示,然后添加时间卷积信息和位置信息,然后基于每个模态的表示加强多模态融合表示,再对统一的表示进行self-attension,再进行后续任务。


具体模块介绍

  • 论文中的各个模块没有具体的介绍,基础模块基于另外一篇ACL的论文:Multimodal Transformer for Unaligned Multimodal Language Sequences (MulT) [1] ,这篇论文的框架图如下所示:

MulT 包括以下几个模块:

Temporal Convolutions

将输入序列通过一个 1D 的时间卷积层:

  • 卷积得到的序列被期望包含序列的局部信息。
  • kkk:对应模态卷积核的大小。
  • 将不同模态的特征维度映射到ddd,使得跨模注意力模块点积 (dot-products) 可用。

Positional Embedding (PE)

为了保证序列携带时间信息,为包含时间信息的表示 X^{L,V,A}\hat{X}_{\{L, V, A\}}X^{L,V,A} 增加位置嵌入 (position embedding, PE):
Z{L,V,A}[0]=X^{L,V,A}+PE⁡(T{L,V,A},d)Z_{\{L, V, A\}}^{[0]}=\hat{X}_{\{L, V, A\}}+\operatorname{PE}\left(T_{\{L, V, A\}}, d\right)Z{L,V,A}[0]=X^{L,V,A}+PE(T{L,V,A},d)
其中 PE⁡(T{L,V,A},d)∈RT{L,V,A}×d\operatorname{PE}\left(T_{\{L, V, A\}}, d\right) \in \mathbb{R}^{T_{\{L, V, A\}} \times d}PE(T{L,V,A},d)RT{L,V,A}×d,计算每个位置索引的嵌入,计算方式如下:
PE⁡[i,2j]=sin⁡(i100002jd)PE⁡[i,2j+1]=cos⁡(i100002jd)\begin{aligned} \operatorname{PE}[i, 2 j] &=\sin \left(\frac{i}{10000^{\frac{2 j}{d}}}\right) \\ \operatorname{PE}[i, 2 j+1] &=\cos \left(\frac{i}{10000^{\frac{2 j}{d}}}\right) \end{aligned} PE[i,2j]PE[i,2j+1]=sin(10000d2ji)=cos(10000d2ji)
其中i=1,⋯,Ti = 1,\cdots,Ti=1,,Tj=0,⌊d2⌋j = 0,\left\lfloor\frac{d}{2}\right\rfloorj=0,2d

Z{L,V,A}[0]Z_{\{L, V, A\}}^{[0]}Z{L,V,A}[0]就是不同模态包含低层位置信息的特征。

Crossmodal Attention (core)

一种融合跨模信息的方式:提供一种潜在的跨模适应 ( latent adaptation across modalities ), 如下图中的模态 β\betaβ 到模态 α\alphaα

Crossmodal Transformers

基于跨模注意力模块,可以设计跨模transformer模块,使一个模态从另外一个模态接收信息。

以模态 vision ( V )到每模态 language ( L )为例:

每个跨模 transformer 都由 D 层 跨模注意力块组成。跨模态 transformer 对 1:D 层计算 feed-forwardly (前馈) 如下:

  • fθf_{\theta}fθ 是一个以 θ\thetaθ 为参数的位置前馈子层
  • CMV→L[i],mul\mathbf{CM}_{V \rightarrow L}^{[i], mul}CMVL[i],mul 是第 iii 层从模态 VVV 到模态 LLL multi-head 版的跨模注意力 ( crossmodal attention )
  • LN\mathbf{LN}LN:layer normalization

在每对模态之间建立跨模交互,所以有6个跨模transformer。(MulT)

Self-Attention Transformers and Prediction

连接所有的跨模 transfomer 的输出,得到Z{L,V,A}∈RT{L,V,A}×2dZ_{\{L, V, A\}} \in \mathbb{R}^{T}\{L, V, A\} \times 2 dZ{L,V,A}RT{L,V,A}×2d,例如ZL=[ZV→L[D];ZA→L[D]]Z_{L}=\left[Z_{V \rightarrow L}^{[D]} ; Z_{A \rightarrow L}^{[D]}\right]ZL=[ZVL[D];ZAL[D]]

4. Experiment

论文 Low Rank Fusion based Transformers for Multimodal Sequences 在三个多模态数据集上做了实验,


可以达到和他改进的 MulT 方法 comparable 的结果,但是相比 MulT,文章具有以下优点:

  • 使用的 transformer 数量少,训练时间短。

  • 以更低的参数,达到相似的性能。

[1] Tsai, Yao-Hung Hubert, et al. "Multimodal transformer for unaligned multimodal language sequences." Proceedings of the conference. Association for Computational Linguistics. Meeting. Vol. 2019. NIH Public Access, 2019.

[2] Liu, Zhun, Shen, Ying, et al. "Efficient Low-rank Multimodal Fusion With Modality-Specific Factors" Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Vol. 2018. NIH Public Access, 2018.

利用跨模态 Transformer 进行多模态信息融合相关推荐

  1. 多模态信息融合多视图融合

    1.多模态信息融合 1.1 多模态信息融合 多模态最新进展解读 1.2 多模态图像融合 多模态医学图像融合 多模态医学图像融合的主要目的: 将多个来源的图像融合为一个单一的图像,每个来源的图像的都包含 ...

  2. EMNLP 2021-多模态Transformer真的多模态了吗?论多模态Transformer对跨模态的影响

    关注公众号,发现CV技术之美 ▊ 写在前面 预训练的视觉语言BERT的目标是学习结合两种模态的表征.在本文中,作者提出了一种基于跨模态输入消融诊断方法(cross-modal input ablati ...

  3. ECCV2020 | 北京大学提出RGB-D语义分割新网络,多模态信息融合

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 这篇文章收录于ECCV2020,由北京大学.商汤科技.香港中文大学提出的基于RGB-D图像的语义分割算 ...

  4. CIKM'21「eBay」推荐系统--利用超图对商品的多模态信息建模

    Click-Through Rate Prediction with Multi-Modal Hypergraphs https://dl.acm.org/doi/pdf/10.1145/345963 ...

  5. 文献阅读-用于图文检索的跨模态信息交互推理网络

    DOI:10.3778/j.issn.1002-8331.2205-0056 引用格式: 魏钰琦,李宁.用于图文检索的跨模态信息交互推理网络[J/OL].计算机工程 与应用. https://kns. ...

  6. MiduCMR跨模态信息检索与数字媒体的智能碰撞

    近日,数据智能应用服务商蜜度midu.com发布了人工智能前沿应用成果--跨模态检索引擎MiduCMR,实现从数据融合到实际应用的重大突破. MiduCMR利用跨模态对比学习.语义融合.语义表征.语义 ...

  7. CVPR 2021 | 跨模态点云补全新框架ViPC:用单一视图推断完整信息

     OPPO 随着CVPR 2021的落幕,越来越多专业论文进入大众视野.OPPO研究院团队与清华大学等多个机构学者群策群力, 基于点云数据不完整的问题联合提出了一种名为ViPC(view-guided ...

  8. Cross-modal Pretraining in BERT(跨模态预训练)

    BERT以及BERT后时代在NLP各项任务上都是强势刷榜,多模态领域也不遑多让-仅在2019 年就有8+篇的跨模态预训练的论文挂到了arxiv上-上图是多篇跨模态论文中比较稍迟的VL-BERT论文中的 ...

  9. 自动驾驶多模态传感器融合的综述

    作者丨黄浴@知乎 来源丨https://zhuanlan.zhihu.com/p/470588787 编辑丨3D视觉工坊 arXiv在2022年2月6日上传的综述论文"Multi-modal ...

最新文章

  1. 在Hammerstein非线性模型中,基于PSO的参数辨识系统
  2. java循环单链表类构造函数_C++实现双向循环链表
  3. js中遇到的一个错误Uncaught SyntaxError: missing )after argument list
  4. RecyclerView(一)综合使用综述(Android 5.0 新特性)
  5. 华为手机什么时候更新鸿蒙系统_华为鸿蒙2.0系统发布,国产手机系统硬气了!...
  6. mysql 5.74安装教程_MySQL数据库作为关系型数据库中的佼佼者,因其体积小,速度快,成本低,不仅受到了市场的极大追捧,也受到了广大程序员的青睐。接下来,就给大家说一下,MySQL的...
  7. html如何连接外部网页,怎么链接一个外部的css文件?
  8. Eclipse使用入门教程
  9. DllRegisterServer调用失败
  10. Linux下软连接(softlink)和硬连接(hardlink)的区别
  11. 关于公共安全解决方案的思考
  12. 经典算法51(来测测你的编程基础)
  13. 空调控制系统节点服务器,空调的云服务器
  14. 小米5x android auto,小米 5s Plus重生——伪装Pixel XL
  15. 黑龙江农垦科技职业学院喜迎寒假多校联赛2(快乐ak场)
  16. MySQL设计与优化
  17. Flash activex控件版本信息
  18. 「牛客网C」初学者入门训练BC139,BC158
  19. Java-File文件操作
  20. 贝叶斯网专题4:概率推理中的变量消元方法

热门文章

  1. 多路IO复用(Linux)
  2. linux fflush函数,sleep函数和fflush函数
  3. USB OTG模式及切换
  4. paymob QB冲值接口
  5. K8S环境部署jaeger-all-in-one
  6. sprint2的总结及团队贡献分
  7. 电气器件系列二十一:变压器
  8. android电视自动关机,android实现自动关机的具体方法代码
  9. echarts-JSON请求数据
  10. 【钟平经典之作】逻辑英语语法笔记