与6位图灵奖得主和100多位专家

共同探讨人工智能的下一个十年

北京智源大会倒计时:4


在即将举行的第二届北京智源大会上(官网:https://2020.baai.ac.cn),图灵奖获得者Geoffrey Hinton 无疑是备受瞩目的演讲嘉宾之一,他的观点和研究视角,近年来一直对全球人工智能的研究风向产生重要影响。Hinton 本次演讲的主题是《Untethering Unsupervised Learning》,“Untethering”在英文中有“解下拴牛马的绳或链”之意,这也意味着Hinton 将带来他对于无监督学习的最新突破性思考或者研究进展,相信一定会令大家翘首以盼。

整理:常政

6月24日Geoffrey Hinton 将在智源大会上做主题报告《Untethering Unsupervised Learning》,长按图片免费注册参会

Geoffrey Hinton,加拿大计算机学家和心理学家,多伦多大学教授,Google工程Fellow。以其在类神经网络方面的贡献闻名,被誉为“深度学习之父”。2010年,他获得了加拿大科学和工程领域的最高奖项——赫茨伯格金奖。2018年因其在深度学习方面的贡献被授予图灵奖。

 图1:Geoffrey Hinton(图片来自网络)

为了帮助大家更好地消化、吸收Hinton这场演讲,我们现在对Hinton 近期关于无监督学习的最新动向或进展作一个简要回顾。众所周知,Hinton 因率先将反向传播应用于神经网络学习,成为深度学习有监督学习的主要奠基人之一,而他近年来频频发力于无监督学习,这代表他对人工智能基础理论、发展趋势有哪些全新的理解?对此我们也将一窥端倪。

无监督学习动向之一:SimCLR

Hinton 团队最近公布的一项关于无监督学习的研究,是2020年2月推出的一款名为 SimCLR 的视觉表示对比学习简单框架[1]。所谓对比学习(Contrastive Learning),就是通过潜在空间的对比损失,最大限度地提高相同数据样本的不同扩充视图之间的一致性,来进行学习表示。

SimCLR的特点是简化了无监督对比学习算法,使其不再依赖于专门的架构和存储库。它学习表示的方式,是通过对比损失最大化了同一示例不同增强视图的隐藏层之间的一致性。

在 ImageNet 上,SimCLR 方法训练出的线性分类器与有监督的 ResNet-50 性能相匹配,top-1 的准确率达到了 76.5% ,相比于 SOTA,提升了7个百分点。仅对 1% 的标签进行微调时,SimCLR top-5的 准确率可以达到 85.8%  ,并且相比于 AlexNet,标签数量减少了 100 倍。

取得如此成绩的方法,主要包括:多个数据增强的组合;在表示(the representation)和对比(the contrastive)之间引入可学习的非线性变换;更大的批处理规模和更多的训练步骤;归一化温标交叉熵损失等。关于更多SimCLR的具体内容,大家可以参阅Hinton团队的这篇论文《A Simple Framework for Contrastive Learning of Visual Representations》(下载地址:http://dwz.date/be42)。

无监督学习动向之二:胶囊网络

2020 年 2 月 ,AAAI 2020 会议上 ,Hinton 详细介绍了他对于“胶囊网络”算法研究的最新进展——“Stacked Capsule Auto-Encoders”(堆栈式胶囊自编码器)。Hinton其实对于“胶囊网络”已经磨刀多年了,提出“胶囊”概念是在2011年,随后默默耕耘、厚积薄发。在2017年、2018年、2019年,Hinton团队先后发表了3篇“胶囊网络”的论文,但Hinton认为发表在NeurIPS 2019上的“Stacked Capsule Auto-Encoders”,才是令他满意的版本(下载地址:http://suo.im/6a7TRs)。2019年版和前两年的版本相比其主要特色在于:首先,采用了无监督学习;其次,在预测方式上,之前版本采用的是"部分-整体"路径,如通过点的位置预测整个星座的位置,而现在是"整体-部分"路径。

所谓胶囊,类似一组打包好的神经元,用来代表实体相对于观察者的各种特征,比如位置、大小、方向、速度、色调、纹理等,特点是通过计算物体的存在概率,并用向量来表征。

图2:Stacked Capsule Auto-Encoders 的学习流程

这个无监督版本的胶囊网络[2],通过可查看所有部件的神经编码器,进而来推断物体胶囊的位置与姿势等属性。该编码器通过解码器进行反向传播训练,通过混合式姿势预测方案来预测已发现部件的姿势等。同时使用神经编码器,通过推断部件及其仿射变换,还可以直接从图像中发现具体的部件。换句话说,每个相应的解码器图像像素建模,都是仿射变换部分做出的混合预测结果。它们通过未标记的数据习得物体及其部分胶囊,然后再对物体胶囊的存在向量进行聚类。

在AAAI 2020会议演讲中,Hinton 指出如果理解了这张两层自动编码器的生成模型(即解码器)图(如图3左边),便理解了新版胶囊网络的精髓,其要点是低层次胶囊的数据,不是直接生成,而是根据高层次胶囊们对它的预测,并形成一个混合预测模型,然后用反向传播学习高层胶囊的实例化。更多可参考 Hinton在 AAAI 2020演讲完整视频(网址:http://dwz.date/be4q),国内也有翻译成中文的文字整理版(网址:https://tech.sina.com.cn/roll/2020-02-15/doc-iimxxstf1607527.shtml)

        图3:Hinton 认为理解了这页PPT,便理解了胶囊网络的原理

根据实验显示,这个成果在 SVHN (街景门牌号码数据集)上获得了最先进的无监督分类结果 (55%),同时在 MNIST (手写数字数据集)上获得了接近最先进的分类结果(98.5%)。

胶囊网络系统自Hinton 团队2017年发表第一篇论文起,便被AI学术界寄予厚望,被认为有可能是“下一代深度学习的基石”。同时有一个细节值得注意的是,胶囊网络这个被Hinton 团队酝酿多年的革命性系统,并未如他在2017年公开所言要“将反向传播全部抛掉”。反向传播,从宣称“抛弃”,到将它与看似格格不入的无监督学习整合于一个胶囊系统中,这代表了HINTON 什么样的观念转化?我们先从反向传播说起。

Hinton 的自我革命:从反向传播到无监督学习的流转

下面,我们来回顾一下 Hinton 是如何将反向传播应用于人工智能的。这一切源点于令他声名大噪的那篇论文——1986年,他和 David Rumelhart、Ronald Williams 合作发表在Nature 上的《Learning representations by back-propagating errors》。

 图4:Hinton 在Nature上的经典论文

《Learning representations by back-propagating errors》

简洁地讲,反向传播,是一种通过负反馈来训练神经网络的方法:将神经网络系统输出与想要的结果相比较,然后一层一层改变神经元的连接,使得输出接近想要的结果。相对于人工智能传统流派符号主义的结构化表征,这种将神经网络呈现状态作为认知过程中的表征形式,被称为“分布式表征”(Distributed Representations),在当时这是一个全新的人工智能算法流派——联结主义。所以当Hinton的这篇论文,首次将反向传播算法首次引入到多层神经网络训练,其意义是奠基性的,尤其是为最近10年人工智能领域深度学习的风靡全球,奠定了根本性的理论基础。

而Hinton 本人也在之后的学术生涯中,也水到渠成般取得了一系列标志性的成就:特别是2006年,他在Science 上发表的《Reducing the Dimensionality of Data with Neural Networks》,不仅采用的预训练方法缓解了局部最优解问题,而且将神经网络的隐含层推动到了7层——具有了真正意义的“深度”,由此正式揭开了全球深度学习的研究热潮;2012年,Hinton 和他的学生们在ImageNet 竞赛中,将图像识别准确率提升了一倍而一举夺魁,更是令深度学习开始成为产业界关注的焦点。2018年,因为在深度学习中的一系列奠基性贡献,Hinton 荣获ACM 颁发的图灵奖。

但伴随着产业应用的深入,以反向传播为基础的联结主义算法,它内在的弊端日渐成为阻碍人工智能进一步开疆拓域的瓶颈。如智源学术委员会主席、中科院院士张钹曾经分析,当今主流的深度学习算法,无法解决因果推断的“黑匣子”问题,训练出来的结果只是一些“重复出现的模式”、“关联的数据",直接后果是导致它的安全性非常脆弱等。

Hinton本人也意识到了这种算法的问题,2017年9月在多伦多的某个AI大会上,公开呼吁将反向传播“全部抛掉,重头再来”。他将联结主义不够智能的理由,归结为反向传播不太像大脑的工作机制,不是“生物学合理”的算法。而替代方案,存在于无监督学习之中,Hinton说:“我们确实不需要所有数据都有标签”。Hinton的这一番观点当时引起了非常大的反响,李飞飞评论道:“反向传播非常重要,它就像是飞机上的劳斯莱斯引擎,虽然飞机无法做到像飞鸟一样机敏而灵活。赞同 Hinton 关于没有工具是永恒的观点,甚至反向传播或者深度学习也不例外。因此,基础研究的继续异常重要”。

到了2019年,Hinton在谷歌 I/O 开发者大会上更是旗帜鲜明地表示:“未来的AI系统将主要是无监督的”。

而现在,Hinton最新的无监督版本胶囊网络,依旧保留反向传播的位置,说明他对这一算法的认知,有了新的转变,今年4月 Hinton团队在Nature Reviews Neuroscience上发表的一篇论文证明了这一点。这篇文章的名字叫《 Backpropagation and the brain 》(下载地址:http://suo.im/6a7TRs),文章根据相关实验认为反向传播模式在大脑中有存在的可能。

先天还是后天?生物大脑的反向传播迷踪

在这篇最新研究中,Hinton 团队认为,尽管大脑可能不存在完全依照反向传播的概念运作,但是反向传播可以为理解大脑皮层如何学习提供新的线索。具体表现在:大脑神经活动中,局部计算出的差异会被编码为类似反向传播的误差信号,从而促进大脑深层网络中的有效学习。Hinton 团队将这种基于活动状态误差驱动突触变化的学习机制称为 NGRAD(Neural Gradient Representation by Activity Differences)。

他们还基于灵长目动物做了一个实验,结果发现:反向传播训练出来的多层模型在匹配灵长类动物的一种视觉神经回路(用来感知形状的视觉腹侧通路)的运作方式时,往往比其他模型表现更好。

当然,对于大脑皮层是否真存在类反向传播的学习模式,还是有很多亟待解决的关键疑问,比如反向传播中,传递的误差信号不影响前向传播产生的神经元活动状态,但是在大脑皮层,反馈连接会对前馈传播产生的神经活动产生影响,它不仅可以调节、激活还可以驱动活动,其复杂性远大于反向传播。

对于Hinton的这条探索路径,智源研究院院长、北京大学信息科学技术学院教授黄铁军认为可能不是一个很准确的方向,他在接收《麻省理工科技评论》采访时表示[3],“反向传播如果发挥作用的话,也主要是在大脑先天结构的形成过程中,而不是在后天学习过程中“。他以视觉系统为例解释道:“人类视觉系统的神经网络结构在出生时是基本确定的,例如初级视皮层 V1 到 V4 的分区和区间连接关系都是确定的,婴儿期接受真实的视觉刺激,进行突触修改,V1 以及大部分视觉皮层的突触就此固定下来,形成我们的视觉功能,注意,婴儿期只是突触修改,并没有改变 V1 到 V4 的这种基本结构,相比之下,深度学习的起点并不是这样一个先天形成的有基本结构的神经系统,只是一个多层的神经网络,可以被训练成视觉网络,也可以被训练成语言网络,因此,深度学习的训练过程,实际上是在重复大脑亿万年进化要完成的结构生成任务”。

黄铁军建议的方向是:模仿生物大脑已经训练好的神经网络结构,而不是从零开始寻找结构。

近60年的野望:让机器像人脑一样思考

无论路线是否可行,对反向传播的最新实验研究,和他近年来转向的无监督学习一样,倾注了Hinton 对人工智能一以贯之的情结:机器可以象大脑一样思考。比如simCRL中的对比学习,通过样本总体特征(无需考虑细节)来识别事物,胶囊网络可以上下左右等不同方位识别同一事物等,这些都是人脑思维的特征。

早在高中时期(1960年代),Hinton 便深深为人脑的工作方式着迷,随后去剑桥曾辗转多个专业攻读过物理、化学、建筑、生理学甚至哲学,均因为产生“抗体”退学,一度还做了段时间的木匠活。直到1972年,Hinton 终于追寻内心的真实召唤在英国爱丁堡大学攻读人工智能博士,进行神经网络的探索。Hinton 曾亲口讲诉过这么一件趣事:有次他告诉自己的女儿:“我知道大脑怎么运转了”,女儿的回复却是:“爸爸你怎么又说这个”——因为Hinton 每隔几年都会跟她说同样的话。

根据加拿大多伦多大学Hinton主页的数据[4],Hinton 的第一篇论文是发表于1976年的《Using relaxation to find a puppet》(下载地址:http://suo.im/6pakSe),内容是用松弛算法从一堆互相重叠的长方形中,找出一只“人偶 (Puppet) ”。

图5:Hinton 1976年论文《Using relaxation to find a puppet》截图

这篇论文去年曾被一国外学者在Twitter上抛出来“曝光”,当时网友们纷纷评论:“这不就是胶囊网络吗?”[5]显然,它们都在做同一件事情:用AI判断空间信息。从松弛算法识别“人偶”,到40多年后用无监督学习生成胶囊、识别图像,Hinton 多年来在AI领域的学术思想,尽管如脱缰了的野马,纵横驰骋,但内心深处始终存在、并坚守着一座灯塔。所以对于Hinton即将到来的《Untethering Unsupervised Learning》主题演讲,也可以视作是关于AI学术理念的一场“变”与“不变”的心灵追寻,因为他的智慧、真挚和执着,其中闪烁的下一代人工智能算法脉络之光,相信一定会令大家有所受益。

问题征集:在即将举行的北京智源大会上,你有什么问题向Geoffrey Hinton提问?赶快点击阅读原文留言告诉我们吧。

参考文献:

[1]https://www.thepaper.cn/newsDetail_forward_6019147

[2]https://blog.csdn.net/weixin_42182910/article/details/98494397

[3]https://mp.weixin.qq.com/s/hm295dLERtcK7rj27hQ1NQ

[4]http://www.cs.toronto.edu/~hinton/papers.html#1983-1976

[5]https://baijiahao.baidu.com/s?id=1634461796649152771&wfr=spider&for=pc

- 长按图片,内行盛会,首次免费注册-

图灵奖得主Geoffrey Hinton:脱缰的无监督学习,将带来什么相关推荐

  1. 图灵奖得主Geoffrey Hinton:我的五十年深度学习生涯与研究心得

    来源:数据派THU & 机器学习初学者 作者:王菁 林亦霖 沈佳丽 程浩源 许菡如 胡燕君 贾川 编辑:新智元 他从未正式上过计算机课程,本科在剑桥大学读的是生理学和物理学,期间曾转向哲学,但 ...

  2. 图灵奖得主Geoffrey Hinton:我的五十年深度学习生涯与研究心法

    来源:The Robot Brains Podcast 机器学习初学者翻译:沈佳丽.程浩源.许菡如.胡燕君.贾川 本文约7500字,建议阅读15分钟本文介绍了Hinton非常坦诚地分享了自己的学术生涯 ...

  3. 图灵奖得主Geoffrey Hinton最新研究:利用神经网络对有关节三维模型进行估计的方法NASA

    NASA: Neural Articulated Shape Approximation 论文作者: Timothy Jeruzalski, Boyang Deng, Mohammad Norouzi ...

  4. 机器学习圣杯:图灵奖得主Bengio和LeCun称自监督学习可使AI达到人类智力水平

    来源:新智元 本文约2608字,建议阅读7分钟. 本文介绍图灵奖得主Yoshua Bengio和Yann LeCun在本届2020 ICLR大会上发表观点称,自监督学习有望使AI产生类人的推理能力.B ...

  5. 找啊找啊找木偶,图灵奖得主G. Hinton第一篇论文曝光!

    作者 | Geoffrey Hinton 译者 | 李倩 编辑 | 一一 出品 | AI科技大本营(ID:rgznai100) 摘要 针对在具有重叠结构的透明矩形中寻找木偶这一问题,Hinton大神想 ...

  6. 胶囊网络升级新版本,推特2000+赞,图灵奖得主Hinton都说好

    鱼羊 发自 凹非寺  量子位 报道 | 公众号 QbitAI 胶囊网络曾被认为是下一代深度学习的基石. 图灵奖得主Geoffrey Hinton在2017年提出了这种全新的深度学习方法,以期挑战CNN ...

  7. 图灵奖得主Yann LeCun的六十年

    2021-01-25 23:02:40 作者 | 陈大鑫.青暮 当今世界人工智能领域,有三位AI学者被业内奉为"神一样的存在",其中两位来自加拿大,一位来自法国. 他们就是2018 ...

  8. AI大觉醒:图灵奖得主Bengio称AI将产生意识,未来机器学习核心是注意力机制

      新智元报道   来源:venturebeat 编辑:梦佳 [新智元导读]人工智能是时候该觉醒了吗?在本周的2020 ICLR 大会上,图灵奖得主Yoshua Bengio针对AI和机器学习的未来阐 ...

  9. Geoffrey Hinton 等6位图灵奖得主和100多位专家邀请您共话人工智能下一个十年

    关注上方"深度学习技术前沿",选择"星标公众号", 技术干货,第一时间送达! 自 2009 年深度学习崛起以来,第三波人工智能浪潮席卷全球,推动了新一波技术革命 ...

最新文章

  1. ui设计的文字怎样提高设计感呢?
  2. java 给控件添加边框_Android UI 利用Drawable Shape给控件加边框/立体效果
  3. 多集群应用如何帮助企业级Kubernetes获益
  4. 新版本springboot整合@transactional注解
  5. python 禁用网卡_如何编程实现启用禁用网卡
  6. 计算机用户权限设置不了,电脑中怎样设置everyone权限
  7. 2018-11-16
  8. 12月27日课程笔记 su、sudo命令及限制root远程登陆
  9. 求解一个flapping问题,双端口可学一个MAC
  10. 【Python】学习笔记2-数据类型:数组、数组循环切片
  11. dreamweaver 8快捷键
  12. 关于mvn install命令执行报错问题
  13. 职场干货 | 如何让你的自我介绍,快速打动面试官
  14. 安卓点击图片跳转界面_详解拳头注册 + 安卓LOL试玩教程
  15. 学习资料(1)-学习网站,Linux,Git,博客
  16. 详解Lodash中的fp实现
  17. 《Linux内核 》MOOC 课程
  18. phpexcel部分操作
  19. Lottie——强大的动画渲染框架
  20. 微信小程序-地图导航

热门文章

  1. python约瑟夫环问题给十个学生编号报到3者出列_趣味算法--约瑟夫环问题(示例代码)...
  2. java hibernate configuration 获取_1 Hibernate Configuration 配置
  3. Keepalived双主模型中vrrp_script中权重改变故障排查
  4. 行业新价值 看物联网的那些“后续力量”
  5. response.end
  6. matlab 字符分割
  7. Python:通过远程监控用户输入来获取淘宝账号和密码的实验(一)
  8. Asp.net之数组应用
  9. linux更改程序启动时间,分享|如何改善应用程序在 Linux 中的启动时间
  10. mysql img格式缩放,再学 GDI+[89]: TGPImage(9) - 图像缩放时的质量(算法)