今年9月初,Yann LeCun在Cognitive Computational Neuroscience (CCN) 2017上发表了题为“为什么大脑能短时间内学习如此多东西?”的演讲,在演讲中他提到,他已经做好放弃概率论(throw Probability Theory under the bus)的准备。

他认为概率理论只是一个工具,而非现实或智能系统的基本特征。作为一个工具,它就存在应用领域的限制。就算你的锯子能够砍树,这并不意味着它就能切割钛。

点击查看Yann LeCun演讲

视频来源:http://www.ccneuro.org

概率论存在的这个问题与预测的有效性密切相关。首先,请看下面的gif动图

从图中我们可以很明显看出他们的分布是不同的,但右侧显示的统计测量的方法和结果却是相同的!换句话说,如果你的预测是基于概率分布所计算出的期望值,那么你很容易就被骗了。

创建这些分布的方法和我们在深度学习中发现的渐进方法类似,主要使用摄动方法(perturbation method)和模拟退火(simulated annealing)。从这个角度看,如果你想骗过一个统计学家,那么深度学习方法会是一个非常方便的工具。

在2015年,有一篇很有趣的论文“使用非平衡热力学进行深度无监督学习”(“Deep Unsupervised Learning using Nonequilibrium Thermodynamics)”写道,你可以使用统计力学的摄动方法,从根本上重新创建一个从随机噪音开始的特定分布。也有一个反向扩散的方法可以将噪音回收成原始分布。

图:我们是基于二维的类似“瑞士卷”分布的数据集上训练的建模框架。第一行显示了沿着轨道方向的时间切片。数据的分布(左图)在经历高斯扩散后,逐渐转化为特性-协方差高斯分布(右图)。中间一行显示了已经训练好的反向轨迹对应的时间切片。一个特性-协方差高斯(左图)经历学习后的均值和协方差函数进行高斯扩散后,逐渐还原为最初的数据分布(右图)。最下面一行显示了同样的逆扩散过程的漂移项

增量摄动(Incremental perturbation)是一个非常强大的工具,很难对其使用统计方法进行处理。摄动方法很重要的一点是它们在非均衡状态下运行。也就是说,与中心极限定理(Central Limit Theorem)所在的范围相差还很远。以上信息让我们有理由相信:增量摄动法确实可以躲过统计检测。

然而,如何创建人为分布并不是我们的真正问题。真正的问题在与,整个贝叶斯理论的实践以及相关的信息理论在非线性领域存在着根本性的缺陷。

Sante Fe复杂性科学研究机构的James Crutchfield最近在新加坡做了一个非常有趣的演讲,提到了非线性系统的这些缺陷:

那些在香农熵(Shannon Entropy)或贝叶斯理论中将过去、现在的概率与未来预测联系起来的方程,在非线性纠缠系统中进行预测时,从本质上说是毫无价值的。相关的论文链接(http://csc.ucdavis.edu/~cmg/papers/mdbsi.pdf),这篇论文中的一个图解让“贝叶斯们”开始去质疑他们在18世纪的信仰:

图:图中描述了将多个贝叶斯网络推理算法应用于二元分布和三元分布的结果。该算法认为变量X,Y和Z之间不存在相关关系,所以形成了三个独立的节点。这个算法会出错其实并不意外:因为二元分布和三元分布不能用有向的无环图来表示,但这是贝叶斯网络的基本假设之一。

总而言之,我们只知道这些非线性系统工作得非常好,但我们对它们一无所知。Crutchfield的发现结果(这可以通过模拟来验证,不能用逻辑论证)是概率归纳法并不适用于非线性领域。

事实上这确实是复杂和非线性的,但幸运的是,我们已经找到了一丝光明:可以通过综合措施来消除非线性的影响。因此,概率归纳可以通过类似于使用分段线性段逼近曲线的方法来运行。这听起来有点疯狂,但它在特定情况下确实可以运行。然而,这并不是一个万无一失的方法。

预测系统的研究人员必须提出的问题是:我们能做得更好吗?我们可以使用纯粹的摄动方法而不用概率归纳法吗?概率归纳法的问题在于它是一种“不成熟的优化”。也就是说这种数学方法中考虑了不确定性。所以当我们使用这种数据方法来预测时,就受到了潜在的不确定性处理机制的影响。

我们的大脑并没有使用蒙特卡罗抽样来估算概率,那么它是怎样处理不确定性的呢?

它的工作方式和“乐观交易”处理不确定性的方式相同,也与任何强大且可扩展的系统处理故障的方式相一致。任何强大的系统都假设会发生故障,因为配置有相应的调整机制。我们的大脑在遇到意外的情况时会进行补偿标记。它通过摄动方法来学习自我纠正。这也是深度学习系统在做的事情,和概率计算无关。这只是一大堆“无限小”的增量的调整。

摄动系统可能有点让人讨厌,因为它们像迭代函数系统(IFS)一样。任何自我迭代或拥有内存的系统都可能成为混沌行为或通用机器的候选对象。我们应该接受现实,这些系统已经脱离了概率方法可分析的范畴。然而,“贝叶斯们”似乎有着无懈可击的信仰,还在坚持他们的方法是普遍适用的。

这篇Max Tegmark et al.的论文(链接:https://arxiv.org/pdf/1606.06737v3.pdf)研究了各种语言之间的点互式信息。注意到这里马尔科夫过程(Markov processes)的表现并不好。简而言之,如果你的预测器是无记忆的,那么它就不能预测复杂的行为。

然而我听说有人认为概率归纳法(probabilistic induction)/贝叶斯法则(Bayes rule)在某些领域适用。这样的领域都有哪些呢?Bernard Sheolkopf准确地告诉了你概率归纳法到底适用于哪些领域(链接:http://ml.dcs.shef.ac.uk/masamb/schoelkopf.pdf)。其实就是那些表现出反因果的领域。

简单地说,由于Y是X(输入)的原因,所以你可以预测Y。因此实际上,关于在哪里能够应用概率归纳法,你得非常小心,即使是对于线性系统也是这样。所以当我们试着应用概率归纳法区分恐龙、星星、椭圆和叉号时,我们发现我们做不到。为什么呢?这是因为观测到的输入(即X)并不是由这里的原因(即Y)直接造成的。也就是说Y不是X的分布的原因。更确切地说,这其中有另一种扰动机制造成了这种混淆。

然而如果你掌握了关于这一扰动机制的输入的信息,那会怎么样呢?

你能利用所生成的分布预测输入吗?答案显然是yes!


一篇新的论文研究了显著性方法(saliency method)的不可靠性。在深度学习网络中,显著性用于强调对网络预测起到最大作用的输入。它被多次提出以用来解释网络的行为。有趣的是,这篇论文展示了对输入的一个简单变换(即常数变换)会导致归因的失败。

这确实是一个很有趣的发现,同时也揭示了我们对深度学习网络的因果关系的理解还在婴儿阶段。过分地要求贝叶斯推断或概率归纳法作为深度学习网络背后的指导原则只是一个几乎没有什么证据支撑的假设。概率归纳法从来不是自然的基本准则,因此当用它来解释复杂系统的时候,应该小心一些。

在这里我引用Judea Pearl的两段话,把它们送给你:

回顾过去,我所遇到的最大挑战是摆脱概率思维并接受两点:第一,人们并不总是从概率角度思考,而是因果效应的角度思考;第二,因果的思维很难用概率的语言描述,它需要一种属于它自己的正式的语言。

人们并不使用概率思维,这是事实。

第二段话是关于概率和现实的本质:

我现在把因果关系作为物理现实和人类对现实的理解的根本基石,把概率关系看作是推动我们理解世界的因果机制的表层现象。

这段话揭示了物理学家是怎样看待热力学和统计力学之间的关系的。这其中可能会出现的认知偏差是他们不仅仅把那些指标当作是系统的结果,还把他们当作是对系统的解释。更确切地说,不要用概率论去解释复杂的非线性现象,如认知过程。更糟的是,不要把概率方法作为机理来构建你的人工智能机器。如果你手头上的是一个简单不那么复杂的问题,你可以随意使用合适的工具。但尽管你的锯子能够砍树,这并不意味着它就能切割钛。

反馈循环处于智能的核心地位,这就意味着一个循环依赖的非线性系统。概率理论只是一个工具,而非现实或智能系统的基本特征。作为一个工具,它就存在应用领域的限制。因此我们应该谨慎使用这一工具作为理解复杂系统的动力。几十年来人工智能一直艰难前行,也许突破口就在于重新审视和质疑我们自己的科研偏差。

原文发布时间为:2017-11-14

本文作者:文摘菌

本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“大数据文摘”微信公众号

Yann LeCun说是时候放弃概率论了,因果关系才是理解世界的基石相关推荐

  1. 珀尔:数据非常愚蠢,领会因果关系才是理解世界的关键

    珀尔认为,这是一个可实现的目标,而且并不需要担心"强"人工智能会损害人类利益,"因为因果推理模型将使AI能够反思它们自身的错误,找出软件的弱点,充当道德实体,帮助我们作出 ...

  2. 深度学习“三巨头”、图灵奖得主 Yann LeCun:我没有天赋,所以才追随聪明人...

    Yann LeCun 作者 | 胡巍巍 出品 | 程序人生(ID:coder_life) "彻头彻尾的骗局." 2018年初,历史上首个获得公民身份的机器人索菲亚,又是上节目,又是 ...

  3. 深度学习“三巨头”、图灵奖得主 Yann LeCun:我没有天赋,所以才追随聪明人

    作者 | 胡巍巍 出品 | 程序人生(ID:coder_life) "彻头彻尾的骗局." 2018年初,历史上首个获得公民身份的机器人索菲亚,又是上节目,又是去联合国演讲,可谓红得 ...

  4. Yann LeCun:大模型方向错了,智力无法接近人类

    来源:机器之心 你训练大模型用的是语言,还想获得 AGI?那肯定是永远也不行的. 「语言只承载了所有人类知识的一小部分:大部分人类知识.所有动物知识都是非语言的:因此,大语言模型是无法接近人类水平智能 ...

  5. 入门深度学习,先看看三位顶级大牛Yann LeCun、Yoshua Bengio和Geoffrey Hinton的联合综述

    [编者按]深度学习领域的三位大牛Yann LeCun.Yoshua Bengio和Geoffrey Hinton无人不知无人不晓.此前,为纪念人工智能提出60周年,Yann LeCun.Yoshua ...

  6. 怼完Sophia怼深度学习!细数完大神Yann LeCun 这些年怼过的N件事,原来顶级高手是这样怼人的...

    图片来源:PCmag.com 十多个小时前,深度学习大神Yann LeCun语出惊人,他宣布放弃"深度学习"这个词.因为媒体对这个词的炒作言过其实,混淆了大家真正的工作,而&quo ...

  7. Yann LeCun力挺前AAAI主席,批判深度学习的Marcus遭怒怼

    Yann LeCun.Tom Dietterich.Gary Marcus在NIPS 2015上讨论我们周围的算法,吴恩达同台 昨天,纽约大学教授.Uber AI实验室前任主管Gary Marcus抨 ...

  8. 梦回93年,32岁的Yann LeCun在展示他的卷积网络...

    作者:梦佳 1993年的你在哪里? 1993年的杨立昆已经做出了第一个卷积网络. 最近,Reddit上一段来自1993年的 1分钟视频火爆网络,视频中,刚过而立之年的Yann LeCun向大家展示了当 ...

  9. 图灵奖得主Yann LeCun:我的论文也被NeurIPS拒了

    来源:机器之心本文约2000字,建议阅读8分钟 双盲评审之下,图灵奖得主的论文也会被拒. 近期,全球人工智能顶会 NeurIPS 2021 放出了今年的论文接收结果.正所谓有人欢喜有人忧,但也有人处于 ...

  10. 图灵奖得主Yann LeCun万字访谈:DNN“史前文明”、炼金术及新的寒冬

    作者 | 武文浩 Yann LeCun,现任 Facebook 副总裁兼首席 AI 科学家,纽约大学教授,曾在 Facebook 内领导开启了 AI 研究,并领导建设了纽约大学的数据科学中心.Yann ...

最新文章

  1. ASP.NET MVC 重点教程一周年版 第九回 HtmlHelper
  2. android的logcat详细用法
  3. bootstarp js设置列隐藏_bootstrap table getHiddenColumns获取隐藏的列的方法
  4. 内置auth 的使用,用超级用户创建
  5. 查询系统linux命令,Linux系统下基本的帮助查询命令小结
  6. linux内核C -- 第04课:Linux内核第一宏——container_of
  7. doubango安卓端的帧率太低,解决办法
  8. 技术胖--前端学习html5表单美化部分笔记
  9. 极智开发 | Go 安装教程
  10. 如何获取微信服务号用户的openID
  11. Chrome打不开网页及设置的解决方法
  12. 实现AlphaGo(二):快速构建棋盘和围棋规则
  13. 《黑客帝国》说的是什么?
  14. 微信平台开发获取微信用户的OPENID
  15. PS渐变羽化制作单车
  16. Sim Lock —— 手机Network锁
  17. MySql按中文姓名排序
  18. ❤实用❤Word批量替换所有内容
  19. ECharts动态加载数据绘制折线图
  20. CStdioFile 在文件末尾追加内容

热门文章

  1. css 点击效果_纯 CSS 实现吸附效果
  2. 斯坦福大学自然语言处理第二课“文本处理基础(Basic Text Processing)”
  3. 【ML小结7】贝叶斯分类器:朴素、半朴素贝叶斯
  4. Linux下建立MySQL数据库,并安装RMySQL包,报错及解决
  5. (2)R包,GO.db调研(数据库构建角度解析)
  6. 【HDU - 4565】So Easy!【数学思维题】
  7. 【Codeforces Round #317 Div1 —— A】Lengthening Sticks【数学思维题】
  8. 【ZOJ 4053】【青岛网络赛主席树+启发式合并】
  9. 安全管理:为软件供应链部署零信任方法
  10. 使用Lucifer实现自动化渗透测试任务