近日,DeepMind 发表博客介绍其对神经网络可解释性的最新研究成果。受神经科学启发,他们通过删除神经元来探索其对网络性能的影响。研究发现,和过去的经验直觉相反,选择性神经元(如「猫神经元」)对于网络的泛化能力并不重要。而某些行为难以理解的非选择性神经元却是不可或缺的。此外,作者还对比了泛化好和记忆好的网络对删除操作的响应行为。

深度神经网络由很多独立的神经元组成,这些神经元以一种复杂而反直觉的方式结合,从而完成一系列的挑战性任务。这一复杂性保证了神经网络的效力,但也使其成为了一个令人困惑且不透明的黑箱。

理解深度神经网络的工作原理对于解释其决策、构建更强大的系统来说至关重要。比如,想象一下,如果不了解每个齿轮之间的协作原理,那么制造一个钟表该有多么困难。探索独立神经元的作用,尤其是那些可以轻松解释的神经元,可以帮助我们理解神经科学和深度学习中的神经网络。

我们的论文 On the importance of single directions for generalization 将很快出现在 ICLR 2018 上,它使用一种受到数十年神经科学实验成果启发的方法来决定深度神经网络中小批神经元的重要性,以及更易解释的神经元对网络计算是否更重要,从而探索破坏带来的影响。

我们通过删除单个神经元和神经元集群来测量破坏网络造成的性能影响。实验得出了两个出人意料的结果:

  • 尽管许多早先的研究集中探讨容易解释的单个神经元 (如「猫神经元」或深度网络中只对猫的图像有反应的神经元),但我们发现这些可解释的神经元并不比激活行为难以解释的困惑神经元更重要。

  • 与只能对以前看过的图像进行分类的网络相比,能对未看过的图像进行正确分类的网络在神经元删除时表现出了更强的适应性。换句话说,泛化良好的网络比记忆良好的网络对单方向的依赖要小得多。

「猫神经元」也许更易解释,但并不重要

在神经科学和深度学习中,人们已经广泛分析了只对单一输入类别的图像(比如狗)作出积极回应的易于解释的神经元(「选择性」神经元)。在深度学习中,这导致了对猫神经元、情感神经元和括号神经元的重要性强调;在神经科学中则是 Jennifer Aniston 神经元,等等。然而,相比于具有低选择性、高度困惑性和难以解释的行为的绝大多数神经元,这些少量的高选择性神经元的相对重要性依然不得而知。

相对于那些对图像集做出似乎随机性的积极和消极回应的令人困惑的神经元,带有清晰回应模式(比如只对狗积极回应,对其他一切消极回应)的神经元更易解释。

为了评估神经元的重要性,我们测量了当删除神经元时神经网络在图像分类任务上的表现是如何改变的。如果一个神经元非常重要,删除它的后果应该很严重,并导致网络性能锐减;而当删除一个不重要的神经元时则影响较小。神经科学家也惯常地执行类似的实验,尽管他们无法达到实验所需的细粒度精确度,但应用于人工神经网络则毫无难度。

删除操作对简单神经网络的影响的概念图。颜色越深,表明神经元越活跃。尝试单击隐藏层神经元对它们进行删除,并查看输出神经元活跃度的变化(原网页)。请注意,仅删除一个或两个神经元对输出的影响很小,而删除大多数神经元则影响很大,并且某些神经元的重要度高于其他神经元!

出人意料的是,我们发现选择性和重要性之间没有什么关系。换句话说,「猫神经元」并不比困惑神经元更重要。这一发现与神经科学最近的研究成果相呼应,后者已经证明,困惑神经元实际上可以提供相当多的信息,除了那些最容易解释的神经元之外,我们还应研究其他神经元,只有这样才能理解深度神经网络。

虽然「猫神经元」可能更具可解释性,但它们相对于没有明显偏好的困惑神经元并没有更强的重要性。可以尝试点击上图(原网页)来查看重要性和可解释性的几种可能关系(正相关、负相关或不相关)。

尽管可解释的神经元在直觉上更易理解(「它喜欢狗」),但它们并不比没有明显偏好的令人困惑的神经元重要。

泛化能力更好的网络更不容易崩坏

只有当系统能泛化到新的场景中时,该系统才能称得上是智能的。例如,一个图像分类网络仅能分类它见过的特定的狗的图像,而对于同一只狗的不同图像则无能为力,该网络就是无用的。近期一篇由 Google Brain、Berkeley 和 DeepMind 合作的论文《Understanding deep learning requires rethinking generalization》表明深度网络可以简单地记住训练过的每张图像,而不是像人类一样学习(例如,理解「狗」的抽象概念)。(参见:解读 | ICLR-17 最佳论文:理解深度学习需要重新思考泛化问题)

然而,关于神经网络学习到的解的泛化能力是由什么因素造成的,至今仍未得到清晰的解答。通过持续删除越来越大的神经元集群,我们发现泛化能力更好的网络对于删除操作更具鲁棒性(相对于仅在训练过程中记忆图像的网络而言)。换句话说,泛化能力更好的网络的性能更不容易崩坏(虽然仍可能遭遇崩坏)。

随着被删除的神经元集群越来越大,泛化能力好的网络的性能下降显著慢于在训练中记忆的网络。

通过这种方式来测量网络的鲁棒性,我们可以评估网络是否使用记忆能力在「作弊」。理解网络记忆过程中的变化,可以帮助我们建立泛化能力更好、更不依赖于记忆的网络。

神经科学启发的分析方法

综上,这些发现表明使用实验神经科学启发的技术可以帮助我们理解人工神经网络。通过这些方法,我们发现高度选择性的独立神经元并不比非选择性的神经元更加重要,而泛化能力更好的网络相对于简单地记忆的网络,对独立神经元的依赖性更小。这些结果暗示我们,独立神经元的重要性可能小得多。

通过解释所有神经元在任务中的角色,而不仅仅是那些更好解释的神经元,我们希望能更好地理解神经网络的内部工作原理,并通过这种理解构建更智能和更通用的系统。

论文:ON THE IMPORTANCE OF SINGLE DIRECTIONS FOR GENERALIZATION

论文链接:https://arxiv.org/abs/1803.06959Despite

尽管有能力记忆大规模的数据集,深度神经网络通常也能获得良好的泛化性能。然而,关于神经网络学习到的解的泛化能力是由什么因素造成的,至今仍未得到清晰的解答。此外,人们曾强调过探索单个方向的微调属性(被定义为一个单元或多个单元的线性组合的激活值对一些输入的反应)的方法,但其重要性也未被评估过。在本文中,我们将这些探究方向连接起来,并证明网络对单个方向的依赖性可以很好地预测其泛化性能(通过让网络在不同比例的损坏标签的数据集上训练,让网络在未修改标签的数据集上训练并集成,进行不同的超参数试验以及多项训练试验)。dropout 仅能在一定程度上将这个量正则化,批量归一化却隐含地会减弱单一方向的依赖性,这部分是因为减少了独立单元的类别选择性。最后,我们发现类别选择性并不能很好地预测任务重要性。这不仅意味着网络可通过减少选择性来最小化对独立单元的依赖性,从而提高泛化能力;还表明独立地选择的单元对于强大的网络性能可能不是必须的。

原文链接:https://deepmind.com/blog/understanding-deep-learning-through-neuron-deletion/

本文为机器之心编译,转载请联系本公众号获得授权

前沿丨DeepMind提出神经元删除法:通过理解每个神经元来理解深度学习相关推荐

  1. 前沿丨DeepMind提出「心智神经网络ToMnet」,训练机器的「理解」能力

    原文来源:arXiv 作者:Neil C. Rabinowitz.Frank Perbet.H. Francis Song.Chiyuan Zhang.S. M. Ali Eslami.Matthew ...

  2. 北理工团队提出一种神经表征驱动的手部运动解码深度学习模型

    近日,北京理工大学机械与车辆学院毕路拯教授团队提出一种神经表征驱动的手部运动解码深度学习模型.研究成果以"MRCPs-and-ERS/D-Oscillations-Driven Deep L ...

  3. DeepMind爆发史:决定AI高峰的“游戏玩家”|深度学习崛起十年

    翻译|刘晓祯.沈佳丽.胡燕君.许晨阳.周亚坤 很少有人会否认,过去十年,AI领域最耀眼的明星组织当属DeepMind,没有之一. 那个震动世界的高光时刻发生在2016年3月的一天,AI选手AlphaG ...

  4. 分享丨李飞飞、吴恩达、Bengio等人的顶级深度学习课程

    目前,深度学习和深度强化学习已经在实践中得到了广泛的运用.整理了深度学习和深入强化学习相关的在线课程,其中包括它们在自然语言处理(NLP),计算机视觉和控制系统中的应用教程. 吴恩达:深度学习专项 这 ...

  5. CSIG AI前沿技术培训首期开讲,携手百度飞桨走进北科大开启深度学习实战

    点击左上方蓝字关注我们 人工智能正进入规模化落地阶段,AI人才培养需求成为重中之重.为积极推进校企人才共育,产教深度融合,6月23日,由中国图象图形学学会(CSIG)主办的「AI前沿技术培训系列」活动 ...

  6. 深度学习前沿算法思想

    转自: 深度学习前沿算法思想 导读 第一版: 深度学习前沿算法思想 深度学习实践:使用Tensorflow实现快速风格迁移 行为识别:让机器学会"察言观色"第一步 第二版: 谷歌首 ...

  7. (转)深度学习前沿算法思想

    深度学习前沿算法思想 本文转自: https://mp.weixin.qq.com/s?__biz=MzA5NDExMTAzNA==&mid=2649981646&idx=2& ...

  8. 心得丨深度学习的技术原理、迭代路径与局限

    本文尝试复盘梳理深度学习目前的技术要点,深度学习中模型迭代的方向,以及改进后存在的局限. 第一部分:深度学习技术基本要素:神经元.神经网络.分类器.可视化框架 在深度学习领域,神经元是深度学习的基本单 ...

  9. 深度学习-11:神经元、神经网络、人脑和卷积神网络

    深度学习-11:神经元.神经网络.人脑和卷积神网络 深度学习原理与实践(开源图书)-总目录 在生物神经网络中,学习源自于大脑中无数神经元之间的连接.大脑接触到新的刺激后,这些神经元之间的连接改变了配置 ...

最新文章

  1. puppet 连载二:服务端和客户端安装(ActiveMQ、MCollective)
  2. 基于.Net Core开发现代化Web应用程序系列课程和文章
  3. VNX证书过期解决方案(2018-11-02)
  4. struts2.0获取各种表单的数据
  5. 【学习笔记】14、标准数据类型—字典
  6. JDK 9 @不建议使用的注释增强功能
  7. 数据挖掘10大算法详细介绍
  8. 跟小伙伴们做了个高效刷论文的小站
  9. rs232转usb_#每日一练2.19#一起学习USB转串口通信
  10. java byte binary_java byte 与 binary 转换
  11. 二层交换机和三层交换机的区别
  12. 启动定时器t0的工作指令是_启动定时器 0 工作的指令是使 TCON 的 ( )_学小易找答案...
  13. 分享一个精灵盛典辅助工具挂机方案
  14. 用12星座看人的性格准吗?
  15. 300以内的蓝牙耳机哪款好?半入耳蓝牙耳机南卡和漫步者测评
  16. 电脑重启bootmgr_电脑出现bootmgr is missing怎么办
  17. Extjs中利用combobox实现全国省市级联
  18. html个人网页步骤,个人网页制作的流程和步骤
  19. 微信小程序 - 音乐列表点击播放 / 暂停音频,流畅切换音频(支持暂停音乐后,保留音乐 “进度“ 继续播放)最好用最详细的源码示例教程,适用于wechat列表点击后播放 mp3 wav 文件的需求
  20. Apache Kylin踩坑记

热门文章

  1. 各方评论《面向儿童的人工智能北京共识》:这是中国人工智能发展轨迹中的一份关键文件...
  2. 影响几代产品人的宝典第 2 部开启预售!5 折限量抢,产品人都需要一本
  3. Fabrice Bellard:一个人抵得上一个百人团队
  4. 专属程序员的编程日历,终于来了 | 10月书讯
  5. 优秀的程序员都在哪里 如何寻找优秀的程序员?
  6. 使用Ethereum C++ Aleth客户端创建具有两个同步节点的以太坊Ethereum私有网络
  7. 清华团队综述全面解读图神经网络理论方法与应用
  8. 近期活动盘点:首期AI Time PhD:清北师兄分享前沿研究成果、“科技驱动,正向创新”医工结合高峰论坛...
  9. 报名 | 赢取20万美金!Call For Code编程马拉松北京站来袭!
  10. 还只看花书,西瓜书?一文告诉你如何正确学习深度学习,从理论到实战。