一只小狐狸带你解锁NLP/ML/DL秘籍

老板老板,听说BERT是个瞎子

此话怎讲?

它能理解语言,但是理解不了小夕的自拍!

video-BERT了解一下

喵喵喵?

AI的三大核心板块(CV/Speech/NLP)近几年都相继取得了非常大的发展和进步。但是正所谓成也萧何,败也萧何,深度学习一直在能力泛化和鲁棒性问题上饱受诟病,通用AI之路遥遥无期。

不过,近期得益于预训练模型的成功,似乎跨模态问题(VQA、看图说话等)也变得更有所期了。基于预训练的跨模态解决方案主要可以分为两个分支,一个是video-linguistic BERT(将视频数据融入BERT),另一个是visual-linguistic BERT(将image图片数据融入BERT)。最主要的难点都是如何将非文本信息融入到BERT的框架中。本文只涉及video-linguistic BERT。

视频可以理解为一组快速播放的图片,其中每一幅图片定义为帧(frame)。一般处理视频数据首先需要按每秒钟x帧(fps)的频率去对视频做抽取,然后将n个连续的frame组成一个片段(clip),这样视频就被切割成了很多不重叠的片段。对于每一个片段clip(包含m个frame)使用CV领域中pretrained模型(如ResNet等)抽取特征向量(visual features),最终视频被表示成特征向量的序列

从视频中抽取出来的特征向量自然是连续实值向量(属于整个实数空间),和离散的文本有很大的不同。当前,将视频的特征向量注入BERT主要有下面两种方式:

(1)Pipeline方式:将实值向量离散化,和文本token对齐加入到BERT模型中;

(2)端到端的方式:微调BERT模型结构,直接使用实值向量参与计算。

话不多说,小夕将通过下面两篇论文分别介绍这两种方法。后续阅读需对BERT有比较深的了解和认识。有需要可以移步这里,对BERT进行简单的复习回顾。文末还有彩蛋,不要错过哦~~

《VideoBERT: A Joint Model for Video and Language Representation Learning》

这是一篇将BERT结合video来学习跨模态表示的经典之作。该工作将video中提取出的特征向量通过聚类的方法离散化,继而在文本token的基础上增加视觉token,一起学习视觉和文本信息。

1 方法

1.1 视频文本数据处理(video and language processing)

针对video的处理,首先从input video每秒中抽取20帧画面(20 fps),每30帧组成一个片段。对每个clip用pretrained的ConvNet提取特征向量(1024维)。但是由于特征向量属于整个R^1024空间,是不可数的。为了和文本token相对应,延续原始BERT中的MLM任务,作者对所有提取出的特征向量使用hierarchical k-means做聚类,一共得到20736个类中心。把类中心作为visual token,每一个视觉特征向量都由它属于的类中心来表征。

针对文本的处理,使用现成的语音识别工具(Automatic Speech Recognition)提取视频中的文本,利用LSTM-based的语言模型对其断句。后续处理延续原始的BERT,用WordPieces切词,词表大小为3万。

1.2 输入格式(input format)

经过前面的处理,video中的语言和视觉信息都变成了离散的token,VideoBERT的输入格式延续了原始BERT的设计,只是增加了[>]这个特殊的token用来区分text token和visual token。

1.3 自监督任务(pretrain)

原始BERT有两个自监督任务:

(1)cloze(完形填空)/MLM(mask language model):预测被mask的text token;

(2)NSP(next sentence prediction):预测两个句对是否是连续的上下句。

第一个任务可以很自然的扩展到visual token中。像text token一样,提前mask visual token,利用没被mask的text token和visual token预测被mask的visual token,是一个多分类问题,使用softmax作为损失函数。

第二个任务NSP在VideoBERT中变成预测text sequence和visual sequence是否一致,即两者是否提取自同一个视频。类似的原始BERT,我们从其他视频数据中抽取visual sequence作为负例,来自该视频数据的visual sequence作为正例。是一个二分类问题。

1.4 下游任务

VideoBERT通过上述两个自监督任务实际上学习了visual-liinguistic的联合表示(分布)p(x,y),其中x表示visual sequence,y表示text sequence。这个联合分布可以用在下列三种任务上:

(1)text-to-video: 根据文本预测视频,根据文本自动插图。

(2)video-to-text: 根据视频预测文本,对视频自动生成摘要。

(3)unimodal fashion(单一模态下使用):利用文本或者视频的边缘分布,根据上文预测下文。对文本来说就是我们非常熟悉的语言模型,对于视频来说我们可以根据前面的视频内容预测后面可能发生的事情。

2 实验

文章实际设计了两个下游任务来验证学习到的跨模态联合表示的有效性。

2.1 看图说话    

根据视频和一个固定的模版“now let me show you how to [MASK] the [MASK],” 预测被mask掉的关键词(一个动词和一个名字)。下图定性的展示了三个例子,每个例子展示了视频中两个片段的类中心,和被预测的top verbs和nouns。

        

表格中的数据定量对比了该任务在不同方法上的效果。S3D是一个经典的监督模型,除了S3D以外的模型都没有使用监督信号进行训练(zero-shot classification,直接使用pre-trained模型)。BERT(language prior)代表直接使用原始BERT,VideoBERT(language prior)是指在原始BERT基础上增加视频数据提取出得文本数据进行学习,VideoBERT(cross modal)是完整模型并结合了视频和文本数据进行学习。对比实验结果可以看到,top-5的准确率,三种BERT设定效果不断提升,验证了数据的有效性和多模态的有效性,最终zero-shot的VideoBERT(cross modal)能够达到和有监督学习的S3D差不多的效果。而top-1的结果各类BERT稍显逊色的原因是BERT基于word piece切词,更有利于open-vocablary的分类问题,主要关注语义上的准确性而不是精确的match。

2.2 video caption

作者利用该任务验证VideoBERT作为特征抽取的有效性。使用同样的transformer encoder-decoder模型生成视频摘要,不同的是输入该模型的feature。

(1)使用S3D提取的feature(baseline)

(2)使用VideoBERT提取feature

(3)VideoBERT feature拼接S3D feature(最强厂牌)

从定性的例子中可以看到,使用VideoBERT feature生成的video caption内容更加的细节,更为生动具体。从定量的指标上来看,VideoBERT+S3D取得了最好的效果,VideoBERT学出来的feature对下游任务video caption有很大的提升。

《Learning Video Representations Using Contrastive Bidirectional Transformer》

看了上一篇的工作,小伙伴们可能会有一个疑问,将实值连续型的特征向量(visual features)通过聚类规整为有限个类中心,是否会丢失video中包含的很多细节的信息呢(⊙ˍ⊙)?那么,这篇文章就不再使用聚类将实值连续型的visual features离散化,而是直接使用实值向量visual features,通过模型算法上的微调,实现BERT的多模态化。

1 方法

首先上模型全景图,虚线上面是pretrain阶段,虚线下面是下游任务的fine-tuning。灰色方框表示使用纯文本数据预训练BERT模型然后fix。白色黑线方框表示使用纯video数据预训练CBT模型,红色线条部分是使用多模态数据预训练cross-modal transformer将前面两者结合。小夕下面带大家逐个揭开每个部分的神秘面纱~~~

1.1 纯文本的BERT模型

自监督任务还是原始BERT的MLM,随机mask text token利用周围没有被mask的文本进行预测。

其中yt为被mask的正确token,y-t表示除去被mask掉yt的text sequence。这个MLM的损失函数实际上是要最大化利用y-t正确预测出yt的概率。而在这里根据y-t预测yt的概率被定义为如下。

其中为经过transformer得到的feature。优化目标是被mask的word sequence y-t的表示和真实的yt的embedding相似(共线)

上述BERT和原始的BERT本质上是一样的,只是用内积的形式代替了softmax计算概率。这一小小的修改和后面visual部分的建模相呼应,模型结构非常的优雅。

1.2 visual CBT模型

基于video数据的自监督任务同样是无缝衔接的MLM模型,但是因为visual feature是连续的实值向量,所以作者使用了NCE(noise contrastive estimation )loss

对比上面的BERT中概率的定义,和NCE的定义是不是超级相似!????

是被mask的visual sequence经过visual BERT的输出。因为visual feature不可数,无法像text部分穷举所有的负例,所以通过负采样的方式sample负例。优化目标是被mask的visual sequence x-t的表示和真实的xt的visual feature et相似。

1.3 跨模态CBT模型

前面介绍了单一模态下的模块,针对既有视频(从video中提取的visual features记为y=y1:T)和文本(从video中利用ASR提取出的文本token,记为x=x1:T)的数据,利用它们之间的对应关系学习多模态交互的表示就交给cross-modal CBT模块啦~~

虽然visual features y和文本x来自同一段视频,但是即使是教学视频,它们在每一帧(frame level)并不是严格对应的,所以我们不能强行要求模型可以通过xt预测yt或者通过yt预测xt。只需要要求它们在sequence level上存在对应关系即可(说人话就是模型可以通过x预测y)。同样使用NCE loss:

分别用visual CBT和BERT模型计算x和y的表示。

带入cross-modal transformer计算交互的表示,用一个浅层的MLP计算x和y之间的互信息。优化目标和前面两个类似,正例(x,y)之间的互信息大,负例(x,y‘)互信息小。

1.4 overall model

整体模型就是上面三个部分的综合。三个部分虽然输入都稍有差异,但是在算法上是非常一致对称的,结合起来非常的完美。

2 实验

2.1 action recognition

用action recognition作为下游任务验证visual representaions的有效性。下表的左边对比了两种pretrain策略(Shuffle&Learn 和3DRotNet )和baseline随机初始化,在fix feature和finetune的两种使用方法上在两个数据集(UCF101和HMDB51)上的效果。实验结果表明了本文提出的visual CBT模型的有效性。表的右边是直接和各类state-of-art的监督模型相比,CBT模型也比这些模型有非常明显的提升。

2.2 action anticipation 

文章使用了三个不同的数据集the Breakfast dataset ,the 50Salads dataset和the ActivityNet 200 dataset。不了解action anticipation任务的可以简单认为是基于video的多分类任务就好。在这个实验中作者不仅证明了CBT方法比其他已有的方法好,还证明了CBT对长video有很好的表示能力。

左边表列出了CBT和其他几个方法的对比,CBT在上述三个任务上都一致优于其他方法(三个实验数据摆上来,非常让人信服呀),其中self-super=Y表示该方法使用pretrain-finetune的方式,self-super=N表示该方式是end-to-end训练的。

右边表则对比了不同视频的长度下,不同模型的效果。在三个数据机上CBT都一致明显优于其他两个baseline(AvgPool和LSTM),并且随着video长度的增加,CBT的效果是越来越好的。一般的模型都会对长文本或者长video失效,比如上表中两个baseline 方法,但是CBT可以不受长度的限制,反而能从更长的video中学到更好的表示,使得模型效果变好。(斯国一!!????)

2.3 other video tasks

文章还对比了video captioning 和 action segmentation 这两个任务,CBT在video captioning上比前面提到的VideoBERT也有所提升,这个提升可能就是优化了聚类步骤造成信息丢失的问题吧。

如何让BERT拥有视觉感知能力?两种方式将视频信息注入BERT相关推荐

  1. Unity3D两种方式播放视频

      Unity3D中播放游戏视频的方式有两种,第一种是在游戏对象中播放,就好比在游戏世界中创建一个Plane面对象,摄像机直直的照射在这个面上.第二种是在GUI层面上播放视频.播放视频其实和贴图非常相 ...

  2. 实战演示:使用Python编写人脸识别测试代码,让你的应用拥有智能感知能力

    人脸识别是计算机视觉领域的一个重要应用.它使用计算机算法来识别和验证面部特征,通常用于安全认证.视频监控.人脸比对等方面.近年来,随着深度学习技术的发展,人脸识别的性能得到了极大的提升,成为了智能感知 ...

  3. 计算机用户没有管理员权限,教你让win7系统电脑普通账户拥有管理员权限的两种方法...

    在ghost win7系统电脑中如果没有管理员权限,是没办法打开一些程序.文件的,甚至删除一些文件也要有管理器权限,不然就会提示"您的权限不足,请点击继续来获得权限."那么怎么让一 ...

  4. Android通过AsyncTask与ThreadPool(线程池)两种方式异步加载大量数据的分析与对比

    在加载大量数据的时候,经常会用到异步加载,所谓异步加载,就是把耗时的工作放到子线程里执行,当数据加载完毕的时候再到主线程进行UI刷新.在数据量非常大的情况下,我们通常会使用两种技术来进行异步加载,一是 ...

  5. Android 应用开发 之通过AsyncTask与ThreadPool(线程池)两种方式异步加载大量数据的分析与对比

    Android 应用开发 之通过AsyncTask与ThreadPool(线程池)两种方式异步加载大量数据的分析与对比 标签: AndroidAsyncTaskThreadPool异步加载view 2 ...

  6. 运行python程序的两种方式交互式和文件式_Python基础知识2

    运行Python程序的两种方式 小白学习,如有错误欢迎指点 一.每位小白写的第一个Python程序 1.运行Python程序的两种方式 1.1 交互式模式(即时对话) 打开cmd,打开Python解释 ...

  7. 手机视频解码的两种方式

    手机视频解码有两种方式:"硬解"和"软解",两种解码方式分别调用的是手机的CPU和GPU. 在手机上GPU和CPU的关系很紧密,在以前的智能机很多GPU的事都是 ...

  8. Eclipse安装SVN插件的两种方式

    登录 | 注册 收藏成功 确定 收藏失败,请重新收藏 确定 查看所有私信查看所有通知 暂没有新通知 想要绕过微信小程序开发中的坑吗?不妨来听这个,今晚8点,1小时帮你搞定! 23小时以前 CSDN日报 ...

  9. java 生成二维码 QRCode、zxing 两种方式

    版权声明:本文为 testcs_dn(微wx笑) 原创文章,非商用自由转载-保持署名-注明出处,谢谢. https://blog.csdn.net/testcs_dn/article/details/ ...

最新文章

  1. TCP往返时延的估计和超时
  2. Linux(CentOS)中常用软件安装,使用及异常——XManager, 中文支持,JDK
  3. c语言编程房屋中介系统,房地产经纪人优题库app下载-房地产经纪人优题库app安卓版下载v4.6.0 - 非凡软件站...
  4. linux 非阻塞 socket - Google 搜索
  5. python中serial模块的使用_python中pyserial模块使用方法
  6. Docker安装稳定版及指定版本
  7. 半吊子架构师,一来就想干掉RabbitMQ
  8. 【记录】ASP.NET MVC MapRoute .htm 不起作用
  9. Windows/Linux双系统安装(附:硬盘知识)
  10. 飞思卡尔16位单片机(四)——GPIO输入功能测试
  11. Pymol教程--Caver插件 研究蛋白通道
  12. 山东大学电路分析实验1 万用表的使用
  13. 无源贴片晶振四角引脚_如何区分贴片晶振的脚位方向
  14. Python基础:第25课——使用类和实例
  15. C语言趣味题:猜数字游戏(含代码创建思路与过程)
  16. 基于HL7的HIE平台
  17. EXCEL如何隔三行设置背景色
  18. 一个非知识库的中文分词算法实现
  19. Photoshop CC 2019安装过程中遇到计算机中丢失:D3DCOMPILER-47.dll的情况
  20. sumo笔记(三)——让小车跑起来(rou文件的生成)

热门文章

  1. 用OpenCV实现简单的泊松融合
  2. 编辑视频贴纸软件_微剪辑 - 视频编辑神器/专业剪辑软件 贴纸/字幕/音乐
  3. [JavaScript 刷题] 搜索 - 腐烂的橘子, leetcode 994
  4. instagram分享_存档instagram帐户正在教被忘记的历史
  5. Oracle 12.2 新特性--PDB和CDB的字符集可以不一样
  6. 科研伦理与学术规范-期末考试答案
  7. 狼与狗的本质区别:从打工到老板的突破
  8. echarts制作区域地图。
  9. vue中watch不触发、不生效的解决办法及原理
  10. Android studio 导入项目详解 (简单快速)