点击我爱计算机视觉标星,更快获取CVML新技术


昨天arXiv新上一篇被NIPS2018会议接收的论文《DropBlock: A regularization method for convolutional networks》,作者为来自谷歌大脑的研究人员,提出了一种专门针对卷积层正则化的方法,方法非常简单,有效改进了CNN的各种任务,非常值得一读!

作者信息:

文中指出,在目前的神经网络训练的广泛实践中,全连接网络加DropOut是一种有效的正则化方法,但将DropOut加到卷积层却往往难以奏效。

为什么会这样呢?

作者认为这是因为卷积层的特征图中相邻位置元素在空间上共享语义信息,DropOut方法在整幅特征图随机丢弃元素,但与其相邻的元素依然可以保有该位置的语义信息。

为了更加有效丢弃局部语义信息,激励网络学到更加鲁棒有效的特征,应该按块(block)丢弃(drop),这就是DropBlock的由来。

请看下面示意图:

上图中绿色区域代表卷积层后的激活层特征图中带有语义信息的区域。

(b)为使用DropOut的示意图,即在整幅特征图中随机丢弃一些元素的结果,虽然绿色区域有元素被丢弃,但因为特征元素之间空间上的语义信息相关性,这种操作并不能有效激励网络学习剩下的区域的语义特征。

(c)图为DropBlock方法,语义信息区域被空间连续的丢弃,使得网络不得不专注于剩余含有语义信息区域中特征的学习。

算法思想

那如何按块(block)丢弃(drop)呢?

我想大部分人第一直觉是在特征图中随机生成种子点,在种子点周围按照一定的宽高将元素置0。

嗯,论文中就是这样做的(^ ^)

算法描述和示意图如下:

上图中绿框以内是按照block_size计算得来的可以生成种子点的区域(为了保证block不出特征图),红色X标出的元素即为种子点,黑色X标出的元素即为置0的区域。

其中有几个参数,论文中唯一的一个数学公式就是关于其中一个参数的计算。(唯一的公式看起来也不是特别得重要)

实验结果

为了验证该方法的有效性,作者在ImageNet图像分类、COCO目标检测、PASCAL VOC 2012语义分割等三个大型真实世界数据库上的不同任务中做了实验。

都有显著的性能提升。

ResNet-50网络+DropBlock在ImageNet验证集的结果,显著提升了分类精度。

下图是在state-of-the-art分类网络AmoebaNet上加DropBlock的结果,top1和top5都取得了稳健提升。

下图是使用RetinaNet检测网络加DropBlock在COCO目标检测任务上的结果,依然表现优异。

下图为RetinaNet语义分割网络从随机初始化开始加DropBlock,在VOC2012语义分割任务中的提升结果。

总结

该文想法非常有道理,方法也非常简单,实验结果很有说服力。也许会成为未来CNN的标配。

论文地址:

https://arxiv.org/abs/1810.12890v1

关于代码:

该文目前并无代码,但个人实现起来也不难,考虑到三位作者来自TensorFlow的大本营谷歌大脑,所以未来也许会直接加到TensorFlow中去。

你认为这项工作如何?欢迎留言~

关注计算机视觉技术,欢迎加入52CV群,扫码添加52CV君拉你入群(请务必注明:加群):

喜欢在QQ交流的童鞋,可以加52CV官方QQ群:928997753。

(不会时时在线,如果没能及时通过验证还请见谅)


长按关注我爱计算机视觉

【点赞与转发】就是一种鼓励

谷歌大脑提出DropBlock卷积正则化方法,显著改进CNN精度相关推荐

  1. cut out数据增强_谷歌大脑提出自动数据增强方法AutoAugment:可迁移至不同数据集...

    近日,来自谷歌大脑的研究者在 arXiv 上发表论文,提出一种自动搜索合适数据增强策略的方法 AutoAugment,该方法创建一个数据增强策略的搜索空间,利用搜索算法选取适合特定数据集的数据增强策略 ...

  2. 谷歌大脑提出“洗发水”二阶优化算法,Transformer训练时间减少40%,Jeff Dean点赞...

    晓查 发自 凹非寺  量子位 报道 | 公众号 QbitAI 机器学习的优化步骤,目前都是一阶方法主导. 无论是SGD还是Adam,此类优化算法在都是计算损失函数的一阶导数--梯度,然后按照某种规定的 ...

  3. EfficientDet:COCO 51.0 mAP!谷歌大脑提出目标检测新标杆

    点击我爱计算机视觉标星,更快获取CVML新技术 昨天谷歌大脑团队发布了论文 EfficientDet: Scalable and Efficient Object Detection ,通过改进 FP ...

  4. 谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构

    11年it研发经验,从一个会计转行为算法工程师,学过C#,c++,java,android,php,go,js,python,CNN神经网络,四千多篇博文,三千多篇原创,只为与你分享,共同成长,一起进 ...

  5. 89.77%准确率!谷歌大脑提出CoAtNet:结合卷积和注意力

    本文系统调研了CNN和Transformer的特性,并将两者结合提出新的家族式网络:CoAtNet,无额外数据时高达86%准确率,在JFT加持下,高达89.77%!性能优于CvT.BotNet和Swi ...

  6. 谷歌最新提出无需卷积、注意力,纯MLP构成的视觉架构!网友:MLP is All You Need?

    2021-05-06 15:50:28 作者 | 耳洞打三金.琰琰 近日,谷歌大脑团队新出了一篇论文,题目为<MLP-Mixer: An all-MLP Architecture for Vis ...

  7. 【深度学习】谷歌最新提出无需卷积、注意力 ,纯MLP构成的视觉架构!网友:MLP is All You Need ?...

    当前,卷积神经网络(CNN)和基于自注意力的网络(如近来大火的 ViT)是计算机视觉领域的主流选择,但研究人员没有停止探索视觉网络架构的脚步.近日,来自谷歌大脑的研究团队(原 ViT 团队)提出了一种 ...

  8. ​比9种SOTA GNN更强!谷歌大脑提出全新图神经网络GKATs

    来源:Google.新智元本文约2550字,建议阅读5分钟 本文为你介绍谷歌大脑与牛津大学.哥伦比亚大学的研究人员提出的一种全新GNN:GKATs. [ 导读 ]GNN虽牛,但也避免不了计算复杂性等问 ...

  9. 告别深度学习炼丹术!谷歌大脑提出“权重无关”神经网络

    来源:新智元 本文约5600字,建议阅读10+分钟. 无需权重训练!谷歌再向深度学习炼丹术发起"攻击". [ 导读 ]神经网络训练中"权重"有多重要不言而喻.但 ...

最新文章

  1. 2021年春季学期-信号与系统-第七次作业参考答案-第三小题
  2. 2021人工智能年度评选报名即将截止,3大类别6大奖项等你申报
  3. 虚拟机上的ubuntu安装vmware tools
  4. hdu 1874畅通工程续(基础Floyd)
  5. MyBatis入门HelloWorld,注解实现
  6. 函数参数和函数返回值
  7. 虛擬機xp中安裝幸福之家3.23
  8. python函数返回值_Python中函数的返回值示例浅析
  9. 自助式BI工具分享:浅析FineBI
  10. Linux命令rm的常用用法
  11. 分享我的Linux开发环境
  12. 2019年美赛C题思路详解
  13. 机器学习之聚类算法(五)层次聚类代码实现及模型可视化
  14. Visio中添加、移动或删除形状上的连接点的方法
  15. 2、使用FTP客户端连接FTP服务器
  16. 2019.6.7 一场搜索专题的考试【including 洛谷·血色先锋队,入门OJ·兴建高铁,珠光宝气阁
  17. Node如何处理模块之间的关系
  18. win10使用KMS激活浏览器被t999劫持
  19. python3.7豆瓣 post 数据(一)
  20. 如何读懂EDIFACT报文?

热门文章

  1. 蔡高厅老师 - 高等数学阅读笔记 - 05 - 导数和微分 - 01 (22、23、24、25、26、27)
  2. 实车采集的数据重建场景_避障、探测、采样......华理这套系统让无人小车“身手非凡”...
  3. php学历要求_“最好编程语言” PHP面试的两三事
  4. linux防火墙ddos,Linux iptables防火墙详解 + 配置抗DDOS***策略实战
  5. 【script】python使用pymssql模块访问SQL Server(Mssql)
  6. java 调度etl_Easy Scheduler是一个工作流调度系统,主要解决数据研发ETL错综复杂的依赖关系...
  7. redis主从配置及无法连接处理
  8. 沉浸式全息本是什么_够炫酷!联想全息教学设备,构建沉浸式教学场景
  9. 计算机硬件外围设备介绍,天津2012年自考“计算机外围设备使用与维护”课程考试大纲...
  10. 计算机病毒怎么做图片解说,【虎子_游戏解说】计算机病毒防范的实施方法