论文阅读笔记(七)——Thin MobileNet

Architecture

前言

还剩两篇,自己这周任务就完成了,冲冲冲

1 论文简介

1.1 关于文章

论文名称:Thin MobileNet: An Enhanced MobileNet Architecture

百度网盘:原文链接
提取码:v7la

1.2 关于模型

又是一个mobilenet的变体~

2 文章正文

2.1 摘要

在计算机领域,移动和嵌入式视觉卷积神经网络(CNN)是深度学习模型,在目标检测和识别中起着重要作用。 为此,MobileNet就是这样一种高效,轻量级的模型,但是由于有限的内存、能量和功率,将此类体系结构的硬件部署到资源受限的微控制器单元中存在许多约束或挑战。 而且,当通过诸如修剪或深度压缩之类的任何方法减小参数的大小和总数时,模型的总体准确性通常会降低。本文提出了三种混合MobileNet架构,与基准MobileNet v1相比,它们具有更高的准确性,并且具有减小的尺寸,更少的层数,更少的平均计算时间以及非常小的过拟合。 开发这些模型的原因是拥有现有MobileNet模型的一种变体,可以轻松地将其部署在受内存限制的MCU中。 我们将具有最小大小(9.9 MB)的模型命名为Thin MobileNet。 通过将标准的非线性激活函数ReLU替换为Drop Activation,并引入Random Erasing正则化技术代替Dropout,我们可以提高准确性。 通过使用可分离卷积代替基线MobileNet中使用的深度可分离卷积来减小模型大小。 稍后,我们通过消除一些不必要的层而使模型变浅而又不降低精度。 实验结果基于在CIFAR-10数据集上训练模型的结果。

2.2 Motivation&Contributions

PS: 这一段主要是方便我们以后写Introduction与Related Work

2.2.1 Motivation

深度卷积神经网络在AlexNet在2012年赢得ImageNet挑战赛时获得了普及。此后,深度学习的领域呈指数增长。 诸如Canny算法或HOG的许多计算机视觉标准算法已被诸如SqueezeNet,SqueezeNext,ResNet,Inception等深度学习模型所取代。在新的优化中也取得了重大进展 技术,非线性激活函数,训练方法等。
为了获得更高的精度,使模型更深入,更复杂。 更深,更复杂的模型的出现导致了众多硬件体系结构的发展例如GPU,Bluebox 2.0,S32V234 MCU等,以提高训练过程的速度并为各种计算机视觉应用程序部署模型。 但是,增加模型的深度和复杂性会增加大小和计算成本,从而降低其硬件部署效率,特别是在资源受限的移动和嵌入式平台中。
在诸如自动驾驶中的图像分类,字幕,目标检测和语义分割等实时应用中,推理时间和准确性是影响人身安全的重要因素。
因此,有必要提供一个非常准确的模型,需要较少的存储器复杂性并需要较少的计算时间来用于实时方案。
为了解决上述问题,发明了一种轻巧的模型MobileNet ,该模型具有较少的参数数量和较少的计算时间。 MobileNet不使用标准卷积,而是使用深度可分离卷积,它仅需要八分之一的计算成本。 MobileNet有两个超参数:宽度乘数和分辨率乘数。 当我们使用它们减小网络规模时,准确性会下降很多。

2.2.2 Contributions

我们提出了一种新的MobileNet体系结构,称为Thin MobileNet,在该体系结构中,我们提高了精度,同时减少了模型大小,计算时间以及基线模型中的过拟合问题。 我们还有另外两个模型,它们的性能比基准模型好

使用可分离卷积替换深度可分离卷积

深度可分离卷积通过首先执行channel-wise卷积(分别过滤每个输入信道)然后借助点式卷积对这些输出进行线性积分来实现。在基线模型中,分别定义了深度卷积层和点方向卷积层。在我们的模型中,我们使用可分离卷积,而不是深度可分离卷积,它将深度层和点层组合成一个层,并且不需要单独定义它们。我们使用了Keras框架,其中定义了可分离卷积2D。这里**,逐点卷积的逐点初始值设定项、逐点正则化子和逐点约束定义在与depthwise初始值设定项、正则化子和约束相同的init()函数中。这将网络减少到14层,保持了纵深可分离卷积的基本功能不变,但对提高网络的精度没有多大作用。模型大小变为26.9 MB(比基线小12.2 MB),参数总数变为2158826**。图2。显示原始网络和修改后网络的核心层之间的差异。
现在,每个epoch的计算时间减少到21s。

使用DropActivation层代替ReLU的MobileNet体系结构

正则化是深度学习网络的重要组成部分。有时,规范化可以很好地发挥作用,但是当将它们组合在一起时,它们并不能提高网络的整体性能

为了使我们的模型更优秀,准确并且与其他正则化技术兼容,非线性激活函数ReLU被Drop-Activation 层取代。非线性函数在训练过程中被随机停用和激活,即,将随机性引入激活函数中。激活函数中的非线性以概率P保持,以概率(1-P)丢弃

Use of Random erasing in the network随机擦除在网络中的应用

随机擦除是一种数据增强方法,我们在图像I中选择矩形区域。在一个小batch中随机删除,并擦除该区域的像素,然后将其替换为随机值。 它增强了卷积神经网络泛化的能力

删除不重要的层

原结构

删除之后的结构

最终网络结构图

实验 Experimental

数据集

  • CIFAR-10

训练

python 3.6
keras
tf-gpu v1.11.0
RTX 1080Ti

结果


总结

在本文中,我们提出了MobileNet的增强版本,称为Thin MobileNet。 我们对现有MobileNet基准模型进行了四处修改。这种新的CNN架构比MobileNet模型和其他一些流行的CNN架构更薄,更准确,更快。 通过我们的实验,我们提高了准确性,并大大减少了网络规模,这使其适合在受内存限制的硬件中进行部署。当我们通过使用可分离卷积代替深度可分离卷积来减小模型的深度时,精度不会降低,因为Drop-activation和Random擦除在补偿精度中起着重要的作用。 通常,浅层模型不如深层模型准确,但是将随机性引入标准激活函数ReLU中并结合随机擦除数据增强功能对保持模型的准确性远高于MobileNet模型的基线准确性有很好的影响。随机擦除对于消除过度拟合问题和增强模型的泛化能力也具有重大影响。 最后的修改是消除了具有相同输出形状的几层以使模型变浅,从而大大减少了参数总数,从而使模型大小为9.9 MB。 此外,与Adam,RMS Prop和SGD等其他优化器相比,Nadam优化器在从头开始对CIFAR-10数据集进行培训和测试时,其性能也更好。 该模型还比许多其他CNN架构快,并且对于诸如对象检测和识别应用程序的实时嵌入式应用程序是安全的。 所有提出的模型都比在CIFAR-10数据集上从头开始训练的基准MobileNet模型表现更好。就准确性而言,最佳模型是Model 2,其准确性为86.42%,而就模型规模而言,最佳模型是Model 3,其中Model 3 我们将其命名为Thin MobileNet(9.9 MB)。未来的工作涉及在这三种模型上尝试宽度乘数和分辨率乘数的各种组合,以实现更有效的网络。对宽度乘数和分辨率乘数使用最佳值可以进一步减小模型大小,使准确性远高于基线MobileNet模型的准确性,同时在模型大小和准确性方面都超过其他基准CNN模型。 稍后,该模型将部署在Bluebox 2.0上,Bluebox 2.0是由恩智浦半导体公司生产的用于单次目标检测的自动硬件开发平台[33]应用。Bluebox 2.0集成了计算机视觉处理器S32V234,多核通信处理器LS2084A和雷达。微控制器单元S32R27。

收获

  • 没啥收获,感觉写的比较水

论文阅读笔记(七)——Thin MobileNet相关推荐

  1. 论文阅读笔记——VulDeePecker: A Deep Learning-Based System for Vulnerability Detection

    本论文相关内容 论文下载地址--Engineering Village 论文中文翻译--VulDeePecker: A Deep Learning-Based System for Vulnerabi ...

  2. [论文阅读笔记15]Recognizing Complex Entity Mentions:A Review and Future Directions

    一,题目 Recognizing Complex Entity Mentions:A Review and Future Directions 识别复杂实体mentions:回顾与未来方向 Dai X ...

  3. 论文阅读笔记:看完也许能进一步了解Batch Normalization

    提示:阅读论文时进行相关思想.结构.优缺点,内容进行提炼和记录,论文和相关引用会标明出处. 文章目录 前言 介绍 BN之前的一些减少Covariate Shift的方法 BN算法描述 Batch No ...

  4. 论文阅读笔记《USAC: A Universal Framework for Random Sample Consensus》

      本文总结了RANSAC算法的流程与存在的问题,整理了近几年基于RANSAC提出的改进算法,并整合各个算法的优势,提出一个统一的RANSAC算法框架.因此本文也可以看做是一片关于RANSAC算法的论 ...

  5. 论文阅读笔记:Improving Attacks on Speck32 / 64 using Deep Learning

    论文阅读笔记:Improving Attacks on Speck32 / 64 using Deep Learning 本文通过神经网络利用了减少轮数的 Speck 的差分性质.为此,作者对神经网络 ...

  6. Are VQA Systems RAD? Measuring Robustness to Augmented Data with Focused Interventions 论文阅读笔记

    Are VQA Systems RAD? Measuring Robustness to Augmented Data with Focused Interventions 论文阅读笔记 一.Abst ...

  7. Recognition Emotion Cause in Conversations 论文阅读笔记

    Recognition Emotion Cause in Conversations 论文阅读笔记 1.第一遍阅读 1.1 标题 Recognition Emotion Cause in Conver ...

  8. 论文阅读笔记(三)——从老虎到熊猫:动物头部检测

    论文阅读笔记(三)--从老虎到熊猫:动物头部检测 论文简介 论文中文翻译:<从老虎到熊猫:动物头部检测> 论文名称:<From Tiger to Panda: Animal Head ...

  9. YOLOv4论文阅读笔记(一)

    YOLOv4论文阅读笔记 Introduction Related work Bag of freebies Bag of Specials 近日发表的YOLOv4无疑是2020年目前最轰动的重磅炸弹 ...

  10. CenterNet:Objects as Points论文阅读笔记

    CenterNet论文阅读笔记 (一)Title (二)Summary (三)Research Objective (四)Problem Statement (五)Method 5.1 Loss Fu ...

最新文章

  1. his系统oracle多少钱,医院信息系统怎样为医改调价做准备:HIS费用功能应用情况调查告诉您...
  2. 10参数_小米10和oppofindx2哪个好用 参数配置对比性能评测
  3. 设置redis能远程访问
  4. 新颖的自我介绍_简短有创意的自我介绍
  5. linux通信--信号量
  6. 常见的不同类型运算的转换方式
  7. apache lucene_Apache Lucene的结构
  8. ASP.NET 数据库缓存依赖
  9. Python将浏览器cookies共享给requests库
  10. HNOI2004 郁闷的出纳员(Splay)
  11. 电子申请客户端(EAC)在64位系统上的兼容性问题
  12. aspen怎么做灵敏度分析_灵敏度分析aspen
  13. 直播软件测试用例,【专家专栏】李雪 | 直播通用测试方法—如何进行直播测试...
  14. 怎样架设游戏服务器 怎样搭建一个属于自己的游戏服 5分钟学会游戏架设 3D手游搭建视频教程 自己做游戏GM
  15. 【STM32】时钟系统RCC
  16. 批量更新mysql数据(万条数据秒完成)
  17. Ubuntu18.04访问简书404问题解决办法
  18. GPS从入门到放弃(二) --- GPS时间
  19. 数据结构与算法——前缀、中缀、后缀表达式
  20. VS2010 之TFS基础使用教程

热门文章

  1. nginx 1.12基础知识
  2. 类似于input输入框placeholder的效果,兼容ie8
  3. php中的加密解密模块-mcrypt
  4. HDU 4283 You Are the One(区间DP)
  5. WebLogic—在Eclipse上配置WebLogic Server
  6. 谷歌浏览器的一个新特点—关于获取iframe的parent对象
  7. 解决NuGet加载或下载资源慢的问题
  8. Python Json读写(json模块)(转载)
  9. string进行大小写转换
  10. Hibernate之懒加载