论文笔记-Two-Stream Convolutional Networks for Action Recognition in Videos
原文地址:http://blog.csdn.net/lk274857347/article/details/73559112
论文贡献:
- 提出了结合空域和时域网络的two_stream卷积网络结构。
- 验证了即使在较小规模的训练数据集上,在多帧稠密光流上训练的卷积神经网络可以获得非常好的性能。
- 展示了多任务学习(multiple learning),应用于不同的运动分类数据集,可以同时提升数据集的规模和检测性能。
1、引言
- 李飞飞使用堆叠视频帧作为网络的输入,结果比人工设计的浅层表示方法还要差。
我们使用了基于时域和空域的两路识别输入流,之后再进行结合的网络结构。
- 空域流从静止的视频帧中执行行为识别。
时域流被训练从而能识别以紧密光流形式存在的运动。
2、最近研究
- 1、shallow high-dimensional encoding of local spatio-temporal features(基于时空域特征的浅层高维编码)
- HOG (Histogram of Oriented Gradients)
- HOF (Histogram of Optical Flow)
提取的特征被编码为BOF(特征词袋)表示,并且集合SVM线性分类器
- 2、dense point trajectories
- H. Wang, A. Kl¨aser, C. Schmid, and C.-L. Liu. Action recognition by dense trajectories. In Proc. CVPR,pages 3169–3176, 2011.首先提出
由调整局部描述符支持区域组成,可以跟随轨迹,通过光流计算。
- H. Wang, A. Kl¨aser, C. Schmid, and C.-L. Liu. Action recognition by dense trajectories. In Proc. CVPR,pages 3169–3176, 2011.首先提出
- 3、深度网络
- 这些工作的大多数,网络的输入为堆叠的连续的视频帧,所以模型被希望能够在第一层学习到时空域基于运动的特征。
- 4、OURS:
- 我们的时域流ConvNet基于多帧紧密光流进行操作,该光流是在能量最小化框架通过处理位移场进行计算。
基于Two-stream结构的视频识别
- 视频可以被分为空域和时域组成部分。
- 空域部分,以单个的视频帧表象的形式存在,携带视频中的场景和目标信息
- 时域部分,以视频帧间的运行形式存在,传递观察者(相机)和目标的移动。
- 设计的结构如下图所示:
- 每一个输入流使用一个深度ConvNet,在softmax层之后进行融合,考虑了了两种融合方案
- 基于堆叠的L2-规范化的softmax分数作为特征进行的平均和训练多分类的线性SVM
3、光流ConvNets
我们的网络模型的输入为一些连续视频帧的堆叠光流位移场,输入能够很好的描述视频帧间的运动,可以使得识别更加容易。考虑了多种基于光流输入的变形。
3.1ConvNet 输入配置
- Optical flow stacking
- 连续的视频帧对t和t+1,一个紧密的光流可以写成位移矢量场的集合
- dt(u,v)记为帧t在点(u,v)的位移矢量,表示使这个点移动到下一帧t+1的对应点。
- 位移场的水平和垂直部分dxt,dyt 可以被认为是图像的通道。
- trajectory stacking
- 在运动轨迹线上进行抽样
- 在运动轨迹线上进行抽样
Optical flow stacking 方法存储的是位置(u,v)的位移矢量;
trajectory stacking方法存储的是在顺着轨迹线位于位置的向量
两种方法如下图所示:
- Bi-directional optical flow:
双向的位移矢量。 Mean flow subtraction
对网络的输入使用0中心化,能够使网络更好地利用relu。在我们的方案中,x方向和y方向的位移矢量场都可以是正值或者负值。
结构
224×224×2L
4、多任务学习
时域ConvNet需要视频数据进行训练,而当前的视频数据集规模仍然较小。为了防止过拟合,可以采用将两个数据集融合为1个,但是两个数据集的分类之间可能存在一些交集,一种选择是将当前数据集中与第二个数据集不同分类的图像放入第2个数据集中,但是这种方法需要人为查找,并且限制了数据集的规模。
一个更为有效的融合的方法是基于多任务学习。它的目标是学习视频的表示,从而能够应对多种任务(多种数据集)。额外的任务作为一个调整,允许利用额外的训练数据。
在我们的方法中,ConvNet被修改为在最后的全连接层拥有两个softmax分类层,每一个分类层对应不同的任务(不同的数据集)。每一层拥有损失函数。总的训练损失为单个任务损失之和,网络的权重可以通过后向传播算法得到。
5、实施细节
ConvNets配置:它对应着CNN-M-2048结构,所有的隐含权重层使用ReLu激活函数;max-pooling采用3×3空间大小,步长为2;时域和空域的ConvNet唯一的差别在于我们移除了从最后的第二个归一化层以减少内存需求。
训练:训练步骤由AlexNet调整而来,对于时域和空域是同样的。网络权重通过动量为0.9的批处理随机梯度下降算法学习得到。每一次迭代,小尺寸的256个样本通过256个训练视频(从不同类中均匀抽样)抽样,每一个视频中一个单帧视频被随机获取。
- 在空域训练中,224×224子图像从选择的帧中随机裁剪;然后采用随机的水平翻转和RGB颜色抖动。视频预先调整大小,所以帧的最小尺寸等于256。
- 在时域训练中,我们计算一个光流输入流I,固定尺寸224×224×2L的输入随机裁剪和翻转。学习速率初始化设置为10−2,之后根据固定的步骤下降,所有训练集保持相同。
测试:给定一个视频,抽样得到固定数目(本实验25)的帧,对于每一个视频帧,我们可以通过裁剪、翻转视频帧四个角和中心区域获得10个ConvNets。整个视频的类别得分可以通过平均抽样视频的得分得到。
Pre-Training on ImageNet ILSVRC-2012:
Multi-GPU 训练
Optical Flow:通过从Opencv工具使用现成的GPU执行。
6、评价
Datasets:UCF-101,HMDB-51
论文笔记-Two-Stream Convolutional Networks for Action Recognition in Videos相关推荐
- 【论文学习】Two-Stream Convolutional Networks for Action Recognition in Videos
Two-Stream Convolutional Networks for Action Recognition in Videos 原文地址 粗略翻译 摘要: 我们研究了视频中用于训练动作识别的深度 ...
- 【视频分类论文阅读】Two-Stream Convolutional Networks for Action Recognition in Videos
论文是视频分类的开山之作,采用了一个双流网络,是空间流和事件流共同组成的,网络的具体实现都是CNN,空间流的输入是静止的图片,来获取物体形状大小等appearance信息,时间流的输入是多个从两帧之间 ...
- 【论文模型讲解】Two-Stream Convolutional Networks for Action Recognition in Videos
文章目录 前言 0 摘要 1 Introduction 1.1 相关工作 2 用于视频识别的双流结构 3 光流卷积神经网络(时间流) 3.1 ConvNet 输入配置 4 实现细节 4.1 测试 4. ...
- 深度学习-视频行为识别:论文阅读——双流网络(Two-stream convolutional networks for action recognition in videos)
这里写目录标题 视频的行为识别 前言 背景 内容组成 主要贡献 算法介绍 网络结构 双流(two stream)网络结构 空间流卷积网络(Spatial stream ConvNet) 时间流卷积网络 ...
- Two-Stream Convolutional Networks for Action Recognition in Videos算法笔记
论文:Two-Stream Convolutional Networks for Action Recognition in Videos 链接:https://arxiv.org/abs/1406. ...
- Two-Stream Convolutional Networks for Action Recognition in Videos双流网络论文精读
Two-Stream Convolutional Networks for Action Recognition in Videos双流网络论文精读 论文:Two-Stream Convolution ...
- 双流网络: Two-Stream Convolutional Networks for Action Recognition in Videos
Contents Introduction Two-stream architecture for video recognition Evaluation Enlightenment Referen ...
- 视频动作识别--Two-Stream Convolutional Networks for Action Recognition in Videos
Two-Stream Convolutional Networks for Action Recognition in Videos NIPS2014 http://www.robots.ox.ac. ...
- [论文阅读笔记]Two-Stream Convolutional Networks for Action Recognition in Videos
Karen Simonyan Andrew Zisserman Visual Geometry Group, University of Oxford fkaren,azg@robots.ox.a ...
最新文章
- pandas基于时序数据计算模型预测推理需要的统计数据(累计时间、长度变化、变化率、方差、均值、最大、最小等):数据持续的时间(分钟)、获得某一节点之后的数据总变化量、获得范围内的统计量
- 有道翻译 excel webservice 失效_VBA实践+excel英文逐句自动有道翻译为中文
- SYN 攻击原理以及防范技术
- 好消息,关于2005的default provider
- AI应用开发基础傻瓜书系列2-神经网络中反向传播与梯度下降的基本概念
- (66)UART接口波特率是多少?以及异步采样时钟是多少频率?
- 一次外网打不开网站的故障总结
- MySQL中事务的分类
- 菜鸟和老鸟都无法避免的问题——未将对象引用设置到对象的实例
- 【物理学】扫描隧道显微镜(Scanning Tunneling Microscope)
- 各操作系统支持图标字体的终端推荐
- 带你认识六种设计原则(开闭原则、里氏代换原则、依赖倒转原则....)
- 微信小程序身份证扫描OCR(信息自动带入)
- matlab车轮滚动动画,Fireworks动画教程:简单制作轮子滚动动画效果
- android unity页面关闭报错,Unity3d报错解决方案
- 科技创新如何托举湖湘未来?岳麓峰会夯实“长沙厚度”
- 文化的影响:整体感知与分析感知
- 2021年全球浮球液位开关收入大约654.3百万美元,预计2028年达到840.2百万美元
- heritrix3.1.0增量爬取
- linux mysql 误删系统文件恢复_干货分享丨如何恢复Linux下误删/etc目录数据