点击我爱计算机视觉标星,更快获取CVML新技术


本文转载自机器之心。

选自 arXiv

作者:Chuang Gan、Hang Zhao、Peihao Chen、David Cox、Antonio Torralba

机器之心编译

声音在物体定位中会起到非常重要的作用,人们甚至可以利用自身对声音的感知来定位视线范围内的物体。在本文中,来自 MIT 计算机科学与人工智能实验室、MIT-IBM 沃森人工智能实验室团队的研究者提出了一套利用无标记的视听数据来自监督学习的算法,仅依靠立体音频和摄像机元数据就可以在视觉参考坐标系中定位移动的车辆。

  • 论文:https://arxiv.org/pdf/1910.11760.pdf

  • 项目链接:http://sound-track.csail.mit.edu/

声音能够传达我们周围现实世界的丰富信息,人类非常善于辨别身边物体产生的声音。我们经常可以根据物体发出的声音(例如狗叫声)来判断物体是什么,并且可以根据它们与其他物体相互作用时发出的声音来判断材料的属性(例如它们的软硬程度)。

此外,我们对声音的感知使我们能够定位不在视线范围内的物体(例如在我们身后或被遮挡的物体),并且在光线不足的条件下,声音在定位物体方面起着重要作用。重要的是,我们的视觉和听觉在根本上是一体的,例如,我们可以通过看或者闭眼听来定位目标并准确指出其所在方向。这种将听觉和视觉信息融合到共同参考坐标系中的本领使我们能够将听觉信息和视觉信息整合在一起(如果两者都存在),或者在另一个不存在时仅依赖其中一个。

本文介绍了一种系统,该系统可以利用未标记的视听数据来学习在视觉参考坐标系中定位物体(移动的车辆),而在推断时仅使用立体声即可。由于两个空间分离的麦克风之间有时延和声级差异,立体音频可提供有关物体位置的丰富信息。下图 1 给出了示例来说明该问题的解决方案。

图 1:以立体声为输入,本文提出的跨模态听觉定位系统可以完全从立体声和摄像机元数据中恢复参考坐标系中移动车辆的坐标,而不需任何视觉输入。

由于手动注释音频和目标边界框之间的关系需要大量人力成本,因此研究者通过将未标记视频中的视频和音频流的同时出现作为一种自监督的方式来解决这一问题,而无需通过真实标注。

具体来说,他们提出了一个由视觉「教师」网络和立体声「学生」网络组成的框架。在训练过程中,使用未标记的视频作为桥梁,将完善的视频车辆检测模型中的知识迁移到音频域。在测试时,立体声「学生」网络可以独立工作,仅使用立体声音频和摄像机元数据就可以进行目标定位,而无需任何视觉输入。

在新收集的听觉车辆跟踪数据集中的实验结果证明,本文提出的方法优于几种基线方法。研究者还证明了他们的跨模态听觉定位方法可以在光线不足的情况下帮助移动车辆的视觉定位。

本研究的目标是在没有任何视频输入的情况下,完全从立体声中恢复行驶中车辆的坐标。这类系统的实际应用场景十分广泛。例如,可以仅使用麦克风来部署交通监控系统,因为麦克风比摄像头便宜且功耗低,可以保护隐私,带宽占用少(仅在前期训练阶段才需要摄像头)。同样,可以使用融合的视听定位来增强机器人的视觉跟踪能力,即使在光线不足条件下也可以表现良好。

方法

本方法的核心是观察到未标记视频中视觉和声音之间的自然同步可以作为自监督的学习形式。因此,机器可以通过查看和听到许多产生声音的移动车辆示例来学习预测物体的位置。研究者使用师生框架(student-teacher framework)对学习问题进行建模。他们的系统使用视频帧和声音同时进行训练,这使得音频「学生」网络可以从视频「教师」网络中学习如何定位车辆边界框。

研究者首先介绍了跨模态听觉定位系统的基本组成部件,然后介绍了如何通过使用目标检测损失和特征对齐约束训练音频子网络,将视觉车辆检测模型中的知识转换为给定摄像机元数据的声音信号。最后,他们提出了一种时间平滑方法(temporal smoothing approach)来跟踪车辆时间。。

下图 2 概述了研究者提出的方法框架。

图 2:跨模态听觉定位「教师-学生」网络框架。

「教师」视觉子网络

本文中的听觉目标定位系统包含两个关键组件:「教师」视觉子网络和「学生」音频子网络。

如上图 2 所示,研究者将 YOLOv2 [31] 作为基于视觉的「教师」网络,因为它能同时保证目标检测的速度和准确性。

YOLOv2 的主干是 Darknet,它由 19 个卷积层和 5 个最大池化层组成。为了使其更适合于目标检测,最后的卷积层被具有 1024 个滤波器的三个 3×3 卷积层替换,随后是一个需要检测输出数量的 1×1 卷积层。类似于 ResNet 中使用的恒等映射(identity mapping),从最后的 3×3×512 层到倒数第二层的卷积层间还有一个转移层(passthrough layer),以聚合细粒度级别的特征。此外,为了使模型更稳定且更易于学习,网络经过训练以预测锚框位置的定位坐标。

为了准备数据,研究者首先将每个视频片段分解为多个 T = 1s 的视频片段,然后选择每个片段的中间帧作为「教师」网络的输入。在训练期间,每个中间视频帧被输入到 YOLOv2 模型中,并利用 Pascal VOC 2007 和 VOC 2012 数据集来进行预处理,从而得到车辆检测结果。为了使检测结果更平滑,他们还应用了非极大值抑制(non-maximum suppression,NMS)作为后处理。

「学生」音频子网络

研究者将目标检测从立体声转换为回归问题。他们将「教师」视觉子网络产生的目标检测结果作为伪标签,然后训练「学生」音频子网络以直接从音频信号中回归伪边界框坐标。考虑到不同的摄像头角度对视觉内容的影响可能会比音频更大,因此在训练音频子网络时,通过将摄像头的元数据作为输入来解决此问题。这里的元数据包括摄像机高度、俯仰角以及摄像机在街道的方位。

研究者首先通过短时间傅立叶变换(Short-Time Fourier Transform,STFT)将每个 1 秒的音频片段转换成声谱图。由于立体声中有两个通道,因此他们分别计算了它们的声谱图,然后将它们叠加作为音频子网的输入。

要将输入音频频谱图的 FT(频率-时间)表征转换为视觉视图,他们首先使用了 10 个跨步卷积层,其中每个卷积层后边都跟着批归一化层和 ReLU 激活函数,作为编码器将立体声音信号压缩为 1×1×1024 特征图,从而消除了空间分辨率。然后,他们使用多层感知器将元数据编码为 1×1×128 特征图。在将压缩的声音信息和已编码的元数据进行通道连接之后,由 2 个全连接层和 3 个反卷积层组成的解码器将用于重建空间分辨率,并将音频信息映射到视觉视图。最终输出结果与 YOLOv2 类似,并且研究者采用 YOLOv2 中使用的目标检测损失来训练音频子网。

实验

下表 1 是本文方法与基线方法的结果对比。

表 1:跨模态听觉定位在平均精度(Average Precision,AP)和中心距离(Center Distance,CD)的结果对比。

从上表中可以看出,当研究者用目标检测损失和特征对齐约束来训练跨模态听觉定位时,它的性能优于所有纯音频基线方法。使用跟踪后处理(tracking post-processing)可以进一步提升平均精度,还可以使跟踪更加一致和平滑。

研究者还分别测试了单个车辆和多个车辆的检测情况。结果如下表 2 所示:

表 2:根据平均精度(AP)和中心距离(CD)得出的单个车辆和多个车辆的听觉车辆定位结果。

在下图 4 中,研究者可视化了输入声谱图和相应的立体声定位结果。

图 4:一个视频片段的跨模态听觉定位结果及对应输入声谱图的可视化。

如上图所示,在视频的开头,图像的右侧有一辆汽车,并且可以清楚地看到,右声道的频谱图振幅高于左声道。

对于无跟踪后处理的基线,研究者将 ID 随机分配给每个框,因为此类基线无法预测 ID。结果如下表 3 所示:

表 3:跟踪指标方面的结果对比。

研究者直接将经过白天数据训练的音频子网络应用于夜间场景,没有进行任何微调。结果如下表 4 所示:

表 4:在恶劣照明条件下的听觉车辆定位平均精度(AP)。

研究者还可视化了一些有趣示例,如下图 5 所示:

图 5:(a)不同场景下跨模态听觉定位的可视化以及由于卡车、火车和杂物发出的嘈杂声音而检测失败的案例;(b)使用视觉目标定位系统的常见失效示例。

在下表 5 中,我们通过比较新场景的性能来探索听觉目标检测系统的泛化能力。

表 5:听觉车辆检测系统的泛化结果。

CV细分方向交流群

52CV已经建立多个CV专业交流群,包括:目标跟踪、目标检测、语义分割、姿态估计、人脸识别检测、医学影像处理、超分辨率、神经架构搜索、GAN、强化学习等,扫码添加CV君拉你入群,如已经为CV君其他账号好友请直接私信,

(请务必注明相关方向,比如:目标检测

喜欢在QQ交流的童鞋,可以加52CV官方QQ群:805388940。

(不会时时在线,如果没能及时通过验证还请见谅)


长按关注我爱计算机视觉

MIT黑科技:无需视觉输入,立体声音频+摄像机元数据即可实现移动车辆定位相关推荐

  1. MIT黑科技:全新芯片将语音识别功耗降低99%

    雷锋网消息:日前 ,MIT(麻省理工学院)的研究人员开发了一款专为自动语音识别设计的低功耗芯片.据悉,他们开发的芯片最高能将语音识别的功耗降低99%. 不管苹果的Siri,谷歌的Google Assi ...

  2. 聊聊旷厂黑科技 | 室内视觉定位导航,补齐导航的最后一块拼图

    "路线规划成功,开始导航","前方十字路口请沿最右侧道路行驶"......这些导航语音已经成为了很多人依赖的信息播报.面对每天层出不穷的城市新坐标,手机地图导航 ...

  3. MIT黑科技:“不开卷也有益”,计算机不翻书就能读完一本书

    编者按:第一眼看到文章的标题,大家肯定会不约而同地想到:"Isn't it amzing that computers can read through a book page by pag ...

  4. MIT黑科技:通过手机记录的咳嗽数据检测是否感染新冠病毒

    这次的新冠状病毒虽然没有2002年的SARS破坏力那么强悍,但其可怕之处是长时间的无症状潜伏,使得被感染者在不知情的情况下,将病毒散播出去.如果没有强有力的防疫手段,病毒的传播几乎难以控制.而防止病毒 ...

  5. Linux黑科技与用户及组管理

    目录 一.Linux有趣的黑科技 二.用户管理-用户操作中的chage命令 三.组管理 四.用户信息查看 前言 一.Linux有趣的黑科技 1.首先保证自己的网络属于连接状态 2.然后安装epel源 ...

  6. 赫兹声波测试软件,手机里的黑科技篇(一)声波频率

    原标题:手机里的黑科技篇(一)声波频率 好玩的app 手机中的黑科技,今天分享一个音频app,绝对黑科技!!! <Frequency Sound Generator>中文<频率声发 ...

  7. filco蓝牙不好用_最新黑科技感应式音箱!无需接口不用蓝牙,放上手机 1s畅享动听音乐~...

    仙贝君每天最惬意的时间,就是下班回家打开音箱的时候:一首歌,一杯咖啡,一本书,蜷在沙发上就可将烦恼压力不快暂时统统抛弃在脑后.今天就给大家推荐一款能够秒杀蓝牙音箱的感应音箱--[开物KAWOO灵犀感应 ...

  8. 黑科技:智慧医院刷脸支付,挂号就医无需等待

    "刷脸"日趋流行,银行.交通.停车等等衣食住行方面已经在多个场景应用了人脸识别技术.网付记者日前采访多个业内人士了解到,人脸识别借助深度学习的应用与发展,识别通过率明显提升,而结合 ...

  9. 专访| 达摩院视觉黑科技创造者华先胜

    简介: 华先胜,阿里科学家.城市大脑人工智能负责人.被业界公认为"视觉识别和视觉搜索领域的国际级权威学者". 今天我们来揭秘下"城市大脑"背后的男人之一--华先 ...

最新文章

  1. 用Git向gitHub上传项目
  2. kohana::message 和config
  3. 2018及以后的热门网络技巧
  4. apache的es的原理_ElasticSearch原理
  5. ARP和RARP报头结构
  6. stylelint rules
  7. linux遍历双向队列,双向循环队列
  8. Flink 1.7 文档翻译活动期待大家的参与 | ApacheCN
  9. java函数ao活动对象_JS之预编译和执行顺序(全局和函数)
  10. 51NOD-1028 大数乘法V2【大数】
  11. 微软正式发布 Silverlight 5
  12. DeepLearning tutorial(7)深度学习框架Keras的使用-进阶
  13. 【转载】2021互联网行业术语@20210311
  14. navigator对象的主要属性介绍
  15. Android Studio将本地计算机文件上传到模拟器scard文件中,显示不出
  16. 网络电视精灵 完整版
  17. linux 下的程序格式,linux 下软件安装包的格式有哪些?
  18. PDF如何生成电子书分享
  19. 洪小文谈科研:自信与谦虚并行
  20. 一个五年北漂的技术er,根据这些年的真实经历,给应届生的一些建议

热门文章

  1. 单向链表的建立和简单的增删改查
  2. B. Make it Divisible by 25
  3. 类型全部为string_TypeScript 高级类型总结(含代码案例)
  4. mysql where is_MySQL——Where条件子句
  5. 中路径查找器的功能_还在用路径查找器?试试它吧!
  6. java 7 40,Java 7u40 Java SE 8 sun.reflect.Reflection.getCallerClass
  7. c语言皮尔森系数程序,按条件选入观测;皮尔森相关系数
  8. linux脚本是什么语言,Linux学习之Shell脚本语言的优势是什么?
  9. celery 可视化_3-django进阶之celery
  10. android crash没有日志_Android开发必备神器CrashCanary