作者丨Ningning MA@知乎(已授权)

来源丨https://zhuanlan.zhihu.com/p/363274457

编辑丨极市平台

【导读】本文提出了一种新的激活函数ACON,可以自适应地学习激活与否。本文在MobileNet-0.25和ResNet-152上,分别将ImageNet准确率提高了6.7%和1.8%。

论文地址:https://arxiv.org/pdf/2009.04759.pdf
论文代码:https://github.com/nmaac/acon

本文提出一种新的激活函数ACON (activate or not),可以自适应地学习激活与否。

ReLU是最常见的激活函数,最近NAS搜到的Swish在各种SOTA网络结构中逐渐取代ReLU。有趣的是,我们发现虽然两者形式看起来很不一样,但Swish可以解释为ReLU的一种平滑近似。基于这个发现,本文进一步分析ReLU的一般形式Maxout系列激活函数,从而得到Swish的一般形式、简单且有效的ACON激活函数。

本文在多个任务上验证了此方法的涨点性能和泛化性能(例如在MobileNet-0.25和ResNet-152上,分别将ImageNet准确率提高了6.7%和1.8%),这表明ACON对已有的激活函数中是一种有效的替代方法。

一. ReLU和Swish的关系

前面提到,NAS在现代激活函数方面取得了成功,NAS搜索到的Swish已经在EfficientNet等许多SOTA模型中已经成为默认配置,但如何解释Swish背后的原理呢?(SENet也是近年的SOTA标配,我们在另一个工作 WeightNet中也做过一些有意思的探讨)

ECCV 2020,一种灵活高效的权重生成网络框架

https://arxiv.org/abs/2007.11823

本文的一个目标是提出一个新的视角,去解释这个搜索结果背后的机制,并研究更有效的激活功能。下面会详细讲解如何把Swish理解为ReLU的一种平滑近似:

对于一个最大函数  , 我们可以通过一个简单而通用的近似公式来获取他的平滑近似:

这里引入了一个  ,它控制着  的平滑程度:

当  时,  (非线性)
当  时,  算术平均 (线性)

从下面的示例图可以更形象的看出  的作用:

对于公式(1),我们仅考虑n=2的情况,可以推导成下面用sigmoid来表示的形式,其中用 分别代表这两项:

我们发现上面的形式看起来仍然很复杂,但当我们把  代入合适的值,有意思的事情就发生了:

我们发现,当  时, 恰好是 ReLU 的表达式,而 又恰好是 Swish 的表达式。于是,我们可以把 Swish 解释为 ReLU 的这样一种平滑近似。

二、ReLU的一般式和Swish的一般式的关系

前面给出了一种新的视角解释了 ReLU 和 Swish 的关系,下面本文对 ReLU 的一般式 Maxout 做出同样的平滑近似,便得到了一簇新的激活函数,即 ACON 系列激活函数。其中 ReLU 是 Maxout 的一种特殊形式,Swish 是 ACON 的一种特殊形式。

我们把  代入不同的值,得到上表中的不同形式,我们着重分析ACON-C,计算它的导数:

看起来会新增加额外的参数 , 我们画出下图来更直观的理解它。可以发现在一阶导中, 控制着其渐进上下界的速度,而 则控制着上下界的值,这一点是Swish所欠缺的,后面的实验也会证明 的重要性。

验证ACON-C中p1,p2的涨点性能,即使在大模型Res152上也有1.1的涨点

三、ACON 的更多特例 ACON-FReLU

前面对Maxout中  的不同取值做了分析。最近专门针对视觉任务的新激活函数 FReLU (Funnel Activation for Visual Recognition  https://arxiv.org/pdf/2007.11824.pdf)也是Maxout的一种特例,本文设  后,得到了 ACON-FReLU,并且基于此模块,设计了一个仅由 Conv1x1 和 ACON-FReLU 组成的轻量级block:

以此 block 为基础搭建了 Toy Funnel Network (TFNet),来验证 ACON-FReLU 的有效性:

和同样不含SE模块的轻量级网络相比可以看到明显优势

四、Meta-ACON

前面对  的不同变体着重做了分析,但前面提到  也同样重要因为其控制了激活程度。然而,从实验结果来看,在 Swish 的原始文章中也提到, 作用不大,即使  固定为1(Swish-1),也能取得差别不大的性能。

这与我们前面对  的分析相违背,于是,本文对  用非常简单直接的小网络结构去生成,即显式地学习激活程度而不仅仅是把  作为一个参数,这样就解决了  效果不大的问题:

下面在不同任务上展示此方法的有效性,可以看到,Meta-ACON 取得了相比于 SENet 几乎两倍的涨点:

在大模型和小模型都能有非常显著的涨点,且随着模型变大,涨点效果没有明显减弱

从学习曲线可以看到ACON-C相比于Swish的优势在于后期仍能有提升,Meta-ACON则效果跟为显著

在其他任务上的泛化性能

更多细节请参考原文和代码。

本文亮点总结:

1.当  时, 恰好是 ReLU 的表达式,而 又恰好是 Swish 的表达式。因此可以把 Swish 解释为 ReLU 的一种平滑近似。

2.本文对 ReLU 的一般式 Maxout 做出同样的平滑近似,便得到了一簇新的激活函数,即 ACON 系列激活函数。

3.本文在多个任务上验证了此方法的涨点性能和泛化性能(例如在MobileNet-0.25和ResNet-152上,分别将ImageNet准确率提高了6.7%和1.8%)


说个正事哈由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:(1)点击页面最上方“深度学习技术前沿”,进入公众号主页。(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。
感谢支持,比心。

重磅!DLer-CVPR2021论文分享交流群已成立!

大家好,这是CVPR2021论文分享群里,群里会第一时间发布CVPR2021的论文解读和交流分享会,主要设计方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。

进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明)

???? 长按识别,邀请您进群!

CVPR 2021 | 自适应激活函数ACON: 统一ReLU和Swish的新范式相关推荐

  1. CVPR 2021 | 自适应激活函数ACON:统一ReLU和Swish的新范式

    ©作者|马宁宁 学校|香港科技大学博士生 研究方向|计算机视觉 本文提出一种新的激活函数 ACON (activate or not),可以自适应地学习激活与否. ReLU 是最常见的激活函数,最近 ...

  2. 自适应激活函数 ACON:统一ReLU和Swish的新范式

    智源导读:本文主要介绍港科大和旷视科技合作,被CVPR2021接收的一篇文章:Activate or Not: Learning Customized Activation. 论文链接:https:/ ...

  3. CVPR 2021 | Involution:超越 Convolution 和 Self-attention 的神经网络新算子

    本文是对我们CVPR 2021被接收的文章 Involution: Inverting the Inherence of Convolution for Visual Recognition的解读,同 ...

  4. 深度!用“极速统一”,开启金融行业数据分析新范式

    作者:51CTO 赵立京 数据库作为金融信息系统的核心基础设施,历经数十年发展,为金融行业转型升级提供了有力的技术支撑.同时, 以银行为代表的金融行业是数据库销售额占比最高的市场,也是对数据库技术依赖 ...

  5. CVPR 2021 | 中科大联合快手,提出人脸伪造检测新方法

    视学算法发布 机器之心编辑部 来自中科大.快手的研究者针对人脸伪造,提出了基于单中心损失监督的频率感知鉴别特征学习框架,将度量学习和自适应频率特征学习应用于人脸伪造检测,实现SOTA性能. 一:背景和 ...

  6. CVPR 2021 involution:超越convolution和self-attention的神经网络新算子

    1 原理 1.1 普通卷积 空间不变性:卷积核大小为Co×Ci×K×KC_o \times C_i \times K \times KCo​×Ci​×K×K,其中CoC_oCo​和CiC_iCi​分别 ...

  7. CVPR 2021 | 港科大旷视提出ACON:激活还是不激活?学习自定义激活函数

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 本文转载自:GiantPandaCV | 作者:zzk 简介 在该工作中,我们提出了一种名为ACON(Act ...

  8. CVPR 2021 | 大幅涨点!新型动态激活函数和轻量级网络TFNet

    点上方计算机视觉联盟获取更多干货 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:旷视研究院 AI博士笔记系列推荐 周志华<机器学习>手推笔记正式开源!可打印版本附pdf下载链接 ...

  9. CVPR 2021 | 基于语义聚合与自适应2D-1D配准的手部三维重建(快手)

    来源丨arXiv每日学术速递 今天,我们介绍的是快手Y-tech入选CVPR 2021的工作之一,Camera-Space Hand Mesh Recovery via Semantic Aggreg ...

最新文章

  1. matlab编程实现基于密度的聚类(DBSCAN)
  2. 网络报错:“The connection is not for this device.”
  3. 函数(复习),闭包,DOM
  4. 2019年第十届蓝桥杯 - 省赛 - C/C++大学B组 - A. 组队
  5. 2011年Android手机用户购买行为研究报告
  6. .idl与.odl的区别
  7. css3浏览,css3支持哪些浏览器?
  8. Selenium Firefox 官方Webdriver -- Geckodriver 下载地址
  9. HDOJ--2092--整数解(水题)
  10. 挑战程序设计竞赛_竞赛通知 | 第二届全国高校计算机能力挑战赛——程序设计赛来啦...
  11. stata15中文乱码_一次性解决Stata中文乱码问题
  12. 工程实践线切割3B代码参考
  13. Android Studio 部分查找快捷键
  14. Tp6 多应用下路由有些没有效果,这是为什么?
  15. 自然语言处理技术及处理框架学习
  16. jenkins 使用过程问题解决方法
  17. Java之父求职被嫌年纪大:程序员只能吃青春饭?
  18. cento网络故障:Job for network.service failed because the control process exited with error code. See sy
  19. 某微型计算机标明piv 1.8g,计算机必备.doc
  20. 华为ai服务器芯片,华为AI芯片有什么用特殊在哪 与普通芯片有什么区别

热门文章

  1. dns短域名会引起nslookup解析总解析到一个IP
  2. boost program_options
  3. Sqlserver 2000 迷你、便携企业管理器(10M),支持Dts编辑
  4. linux与windows下开发,Linux 与 Windows下开发感受
  5. 关于keras的class_weight与sample_weight(解决样本不均衡或类别不均衡问题)
  6. TSNE 附有codechina代码
  7. keras merge
  8. 为什么pytorch mode = sequential() 为何model(input)这样调用就直接执行了forward
  9. CUDA是Nvidia开发的一种并行计算平台和编程模型,用于在其自己的GPU(图形处理单元)上进行常规计算
  10. pandas datafrae merge操作