引言

原文链接:https://mp.weixin.qq.com/s/3sKfJnPayDCCosKVP3Jz8Q?

前四节浅显探讨什么是人工智能和当前所处的历史时期,后面六节分别探讨六个学科的重点研究问题和难点,有什么样的前沿的课题等待年轻人去探索,最后一节讨论人工智能是否以及如何成为一门成熟的科学体系。

人工智能是一个非常广泛的领域。当前人工智能涵盖很多大的学科,我把它们归纳为六个:

  1. 计算机视觉(暂且把模式识别,图像处理等问题归入其中)
  2. 自然语言理解与交流(暂且把语音识别、合成归入其中,包括对话)
  3. 认知与推理(包含各种物理和社会常识)
  4. 机器人学(机械、控制、设计、运动规划、任务规划等)
  5. 博弈与伦理(多代理人agents的交互、对抗与合作,机器人与社会融合等议题)
  6. 机器学习(各种统计的建模、分析工具和计算的方法)

第一节 现状评估:正视现实

人工智能的研究,简单来说,就是要通过智能的机器,延伸和增强(augment)人类在改造自然、治理社会的各项任务中的能力和效率,最终实现一个人与机器和谐共生共存的社会。这里说的智能机器,可以是一个虚拟的或者物理的机器人。与人类几千年来创造出来的各种工具和机器不同的是,智能机器有自主的感知、认知、决策、学习、执行和社会协作能力,符合人类情感、伦理与道德观念。

现在的人工智能和机器人,关键问题是缺乏物理的常识和社会的常识“Common sense”。 这是人工智能研究最大的障碍。那么什么是常识?常识就是我们在这个世界和社会生存的最基本的知识:(1)它使用频率最高;(2)它可以举一反三,推导出并且帮助获取其它知识。这是解决人工智能研究的一个核心课题。

我们离真正的人工智能还很遥远呢?其实也不然。研究的思路要找对问题和方向。自然界已经为我们提供了很好的案例。

第二节 未来目标: 一只乌鸦给我们的启示

在YouTube,搜索乌鸦(crow learning),震惊于乌鸦对于新的问题出现时的自我学习能力,达到与社会的交互

乌鸦给我们的启示,至少有三点:

  1. 它是一个完全自主的智能。感知、认知、推理、学习、和执行, 它都有。我们前面说的, 世界上一批顶级的科学家都解决不了的问题,乌鸦向我们证明了,这个解存在。
  2. 你说它有大数据学习吗?这个乌鸦有几百万人工标注好的训练数据给它学习吗?没有,它自己把这个事通过少量数据想清楚了,没人教它。
  3. 乌鸦头有多大?不到人脑的1%大小。 人脑功耗大约是10-25瓦,它就只有0.1-0.2瓦,就实现功能了,根本不需要前面谈到的核动力发电。 这给硬件芯片设计者也提出了挑战和思路。

我们要寻找“乌鸦”模式的智能,而不要“鹦鹉”模式的智能。当然,我们必须也要看到,“鹦鹉”模式的智能在商业上,针对某些垂直应用或许有效。

第三节 历史时期:从“春秋五霸”到“战国六雄”

从深一层的理论基础看。我把人工智能发展的60年分为两个阶段。

  1. 第一阶段:前30年以数理逻辑的表达与推理为主。基本都是基于数理逻辑和推理。这一套逻辑的东西发展得很干净、漂亮,很值得我们学习。但是,这些符号的知识表达不落地,全书谈的没有实际的图片和系统;
  2. 第二阶段:后30年以概率统计的建模、学习和计算为主。

第四节 人工智能研究的认知构架:小数据、大任务范式

智能系统的根源可以追溯到两个基本前提条件:

  1. 物理环境客观的现实与因果链条。这是外部物理环境给乌鸦提供的、生活的边界条件。在不同的环境条件下,智能的形式会是不一样的。任何智能的机器必须理解物理世界及其因果链条,适应这个世界。
  2. 智能物种与生俱来的任务与价值链条。这个任务是一个生物进化的“刚需”。如个体的生存,要解决吃饭和安全问题,而物种的传承需要交配和社会活动。这些基本任务会衍生出大量的其它的“任务”。动物的行为都是被各种任务驱动的。任务代表了价值观和决策函数,这些价值函数很多在进化过程中就已经形成了,包括人脑中发现的各种化学成分的奖惩调制,如多巴胺(快乐)、血清素(痛苦)、乙酰胆碱(焦虑、不确定性)、去甲肾上腺素(新奇、兴奋)等。

有了物理环境的因果链和智能物种的任务与价值链,那么一切都是可以推导出来的。要构造一个智能系统,如机器人或者游戏环境中的虚拟的人物,我们先给他们定义好身体的基本行动的功能,再定一个模型的空间(包括价值函数)。生物的基因也就给了每个智能的个体这两点。然后,它就降临在某个环境和社会群体之中,就应该自主地生存,就像乌鸦那样找到一条活路:认识世界、利用世界、改造世界。

模型的空间通过价值函数、决策函数、感知、认知、任务计划等来表达。通俗来说,一个脑模型就是世界观、人生观、价值观的一个数学的表达。这个空间的复杂度决定了个体的智商和成就。

是什么驱动了模型在空间中的运动,也就是学习的过程?

  1. 外来的数据。外部世界通过各种感知信号,传递到人脑,塑造我们的模型。数据来源于观察(observation)和实践(experimentation)。观察的数据一般用于学习各种统计模型,这种模型就是某种时间和空间的联合分布,也就是统计的关联与相关性。实践的数据用于学习各种因果模型,将行为与结果联系在一起。因果与统计相关是不同的概念。
  2. 内在的任务。这就是由内在的价值函数驱动的行为、以期达到某种目的。我们的价值函数是在生物进化过程中形成的。因为任务的不同,我们往往对环境中有些变量非常敏感,而对其它一些变量不关心。由此,形成不同的模型。

当前的很多深度学习方法,属于一个被我称作“大数据、小任务范式(big data for small task)”。人工智能的发展,需要进入一个“小数据、大任务范式(small data for big tasks)”。

那么,如何定义大量的任务?人所感兴趣的任务有多少,是个什么空间结构?这个问题,心理和认知科学一直说不清楚,写不下来。这是人工智能发展的一个巨大挑战。

第五节 计算机视觉:从“深”到“暗” Dark, Beyond Deep,推测看到之外的东西


视觉是人脑最主要的信息来源,也是进入人工智能这个殿堂的大门。以下为大多数研究人员忽视的、但是很关键的研究问题。

  1. 几何常识推理与三维场景构建(geometric common sense)。现在的三维坐标的确定都需要很多个不同视角进行联合求解。而人只需要一张图像就可以把三维几何估算出来(借助于常识性的物体几何尺寸),人对三维的感知其实都是非常不准的,它的精确度取决于你当前要执行的任务。在执行的过程中,人不断地根据需要来提高精度。

  2. 场景识别的本质是功能推理,现在很多学者做场景的分类和分割都是用一些图像特征,用大量的图片例子和手工标注的结果去训练神经网络模型 — 这是典型的“鹦鹉”模式。人看到一个三维空间之后,人脑很快就可以想象我可以干什么,场景的定义是按照你在里面能够干什么,这个场景就是个什么,按照功能划分,这些动作都是你想象出来的,实际图像中并没有。人脑感知的识别区与运动规划区是直接互通的,相互影响。如下图两个的特征不一样,但是人脑是识别出是厨房以后它的基本功能就能确定,是通过想象推理得来的。

  3. 物理稳定性与关系的推理。我们的生活空间除了满足人类的各种需求(功能、任务)之外, 另一个基本约束就是物理。我们对图像的解释和理解被表达成为一个解译图,这个解译图必须满足物理规律,否则就是错误的。比如稳定性是人可以快速感知的,如果你发现周围东西不稳,要倒了,你反应非常快,赶紧闪开。人对物理稳定性的反应是毫秒级,第一反应时间大约 100ms。功能和物理是设计场景的基本原则。几何尺寸是附属于功能推出来的,比如椅子的高度就是因为你要坐得舒服,所以就是你小腿的长度。作者提出了一个新的场景理解的minimax标准:最小化不稳定性且最大化功能性(minimize instability and maximize functionality)。回到我家厨房的例子,你就会问,那里面的水是如何被检测到的呢?水是看不见的,花瓶和水壶里的水由各种方式推出来的。另外,你可能注意到,桌上的番茄酱瓶子是倒立着,为什么呢? 你可能很清楚,你家的洗头膏快用完的时候,瓶子是不是也是的倒着放的呢?这就是对粘稠液体的物理和功能理解之后的结果。由此,你可以看到我们对一个场景的理解是何等“深刻”,远远超过了用深度学习来做的物体分类和检测。

  4. 意向、注意和预测。厨房那张图有一个人和一只狗,我们可以进一步识别其动作、眼睛注视的地方,由此推导其动机和意向。这样我们可以计算她在干什么、想干什么,比如说她现在是渴了,还是累了。通过时间累积之后,进而知道她知道哪些,也就是她看到了或者没有看到什么。在时间上做预测,她下面想干什么。只有把这些都计算出来了,机器才能更好地与人进行交互。

  5. 任务驱动的因果推理与学习。我们人是非常功利的社会动物,就是说做什么事情都是被任务所驱动的。“天下熙熙,皆为利来;天下攘攘,皆为利往。” 我们不需要大数据的学习模式,而是靠举一反三的能力。

我们的知识是根据我们的任务来组织的。那么什么叫做任务呢?如何表达成数学描述呢?每个任务其实是在改变场景中的某些物体的状态。牛顿发明了一个词,在这里被借用了:叫做fluent。这个词还没被翻译到中文,就是一种可以改变的状态,我暂且翻译为“流态”吧。比如,把水烧开,水温就是一个流态;番茄酱与瓶子的空间位置关系是一个流态,可以被挤出来;还有一些流态是人的生物状态,比如饿、累、喜悦、悲痛;或者社会关系:从一般人,到朋友、再到密友等。人类和动物忙忙碌碌,都是在改变各种流态,以提高我们的价值函数(利益)。

所谓因果就是:人的动作导致了某种流态的改变。把这些图像之外的东西统称为“暗物质”— Dark Matter。物理学家认为我们可观察的物质和能量只是占宇宙总体的5%,剩下的95%是观察不到的暗物质和暗能量。视觉与此十分相似:感知的图像往往只占5%,提供一些蛛丝马迹;而后面的95%,包括功能、物理、因果、动机等等是要靠人的想象和推理过程来完成的。

本章总结:视觉研究前面25年的主流是做几何,以形状和物体为中心的研究:Geometry-Based and Object-Centered。最近25年是从图像视角通过提取丰富的图像特征描述物体的外观来做识别、分类: Appearance-Based and View-Centered。几何当然决定表观。那么几何后面深处原因是什么呢?几何形状的设计是因为有任务,最顶层是有任务,然后考虑到功能、物理、因果,设计了这些物体再来产生图像,这是核心问题所在。我把在当前图像是看不见的“东西”叫dark matter。物理里面dark matter energy占95%,确确实实在我们智能里面dark matter也占了大部分。而你看到的东西就是现在深度学习能够解决的,比如说人脸识别、语音识别,就是很小的一部分看得见的东西;看不见的在后面,才是我们真正的智能,像那个乌鸦能做到的。

所以,我的一个理念是:计算机视觉要继续发展,必须发掘这些“dark matter”。把图像中想象的95%的暗物质与图像中可见的5%的蛛丝马迹,结合起来思考,才能到达真正的理解。现在大家都喜欢在自己工作前面加一个Deep,以为这样就算深刻了、深沉了,但其实还是非常肤浅的。不管你多深,不管你卷积神经网络多少层,它只是处理可见的图像表观特征、语音特征,没有跳出那5%,对吧?那些认为深度学习解决了计算机视觉的同学,我说服你了么?如果没有,后面还有更多的内容。

视觉研究的未来,我用一句话来说:Go Dark, Beyond Deep — 发掘暗,超越深。

第六节 认知推理:走进内心世界,由各种共识共同预测世界的各种观念,推测对方所想

一个狐狸和水獭对峙的视频。水獭抓到鱼了以后,发现这个狐狸在岸上盯着它呢,它知道这个狐狸想抢它嘴里叼着的鱼。水獭就想办法把鱼藏起来,它把这个鱼藏到水底下,然后这个狐狸去找。这说明了动物之间互相知道对方在想什么。


最底下中间的那个椭圆代表真实世界(“上帝”的mind,真相只有TA知道,我们都不知道),上面中间的那个椭圆是共识。多个人的话就是社会共识。在感知基础上,大家形成一个统一的东西,共同理解,我们达成共识。比如,大家一起吃饭,菜上来了,大家都看到这个菜是什么菜,如果没有共识那没法弄。比如,“指鹿为马”或者“皇帝的新装”,就是在这些minds之间出现了不一致的东西。这是所谓“认识论”里面的问题。以前,在大学学习认识论,老师讲得比较空泛,很难理解;现在你把表达写出来,一切都清楚了。这也是人工智能必须解决的问题。

我们要达成共识,共同的知识,然后在一个小的团体、大致社会达成共同的价值观。当有了共同价值观的时候,就有社会道德和伦理规范,这都可以推导出来了。俗话说,入乡随俗。当你加入一个新的团体或者社交群体,你可能先观察看看大家都是怎么做事说话的。机器人要与人共生共存 必须理解人的团体的社会道德和伦理规范。所以说,这个认识论是机器人发展的必经之道。乌鸦知道人类在干什么,它才能够利用这个在社会里生存。

那么如何达成共识呢?语言就是必要的形成共识的工具了。

第七节 语言通讯:沟通的认知基础,沟通是构成社会共识的基础

人类的语言中枢是独特的,有趣的是它在运动规划区的附近。我们为什么要对话呢?语言的起源就是要把一个人脑袋(mind)的一个信息表达传给你一个人,这就包括上一节讲的知识、注意、意向计划,希望通过对话形成共识,形成共同的任务规划,就是我们一致行动。所以,语言产生的基础是人要寻求合作。

动物之间就已经有丰富的交流的方式,很多借助于肢体语言。人的对话不一定用语言,手语、哑剧(pantomine)同样可以传递很多信息。所以,在语言产生之前,人类就已经有了十分丰富的认知基础,也就是上一节谈的那些表达。没有这样的认知基础,语言是空洞的符号,对话也不可能发生。

人和动物相比,我们之所以能够比他们更高级,因为脑袋里有很多通信的认知构架(就像多层网络通讯协议)在大脑皮层里面,没有这些认知构架就没法通信。研究语言的人不去研究底下的认知构架,那是不会有很大出息的。除了需要这个认知基础,语言的研究不能脱离了视觉对外部世界的感知、机器人运动的因果推理,否则语言就是无源之水、无本之木。这也就是为什么当前一些聊天机器人都在“扯白”。

**最基本的通信过程的过程:**信息的一次发送。当某甲(sender)要发送一条消息给某乙(receiver),这是一个简单的通讯communication。这个通讯的数学模型是当年贝尔实验室香农Shannon1948年提出来的信息论。首先把它编码,因为这样送起来比较短,比较快;针对噪声通道,加些冗余码防错;然后解码,某乙就拿到了这个信息。

在这个通讯过程之中他有两个基本的假设。第一、这两边共享一个码本,否则你没法解码,这是一个基本假设。第二、就是我们有个共享的外部世界的知识在里面,我们都知道世界上正在发生什么什么事件,比如哪个股票明天要涨了,哪个地方要发生什么战争了等等。我给你传过去的这个信息其实是一个解译图的片段(PG:parse graph)。

Shannon的通讯理论只关心码本的建立(比如视频编解码)和通讯带宽(3G,4G,5G)。1948年提出信息论后,尽管有很多聪明人、数学根底很强的人进到这个领域,这个领域一直没有什么大的突破。为什么?因为他们忽视了几个更重大的认识论的问题,避而不谈:

  1. 甲应该要想一下:乙脑袋里面是否与甲有一个共同的世界模型?否则,解码之后,乙也不能领会里面的内容?或者会误解。那么我发这个信息的时候,措辞要尽量减少这样的误解。
  2. 甲还应该要想一下:为什么要发这个信息?乙是不是已经知道了,乙关不关注这个信息呢?乙爱不爱听呢?听后有什么反应?这一句话说出去有什么后果呢?
  3. 乙要想一下:我为什么要收这个信息呢?你发给我是什么意图?

纵观人类语言,**中国的象形文字实在了不起。**所谓象形文字就完全是“明码通讯”。每个字就是外部世界的一个图片、你一看就明白了,不需要编解码。搞视觉认知的,要理解物体功能就要追溯到石器时代去,搞语言的要追溯到语言起源。其他过于文字和图片的例子(甲骨文)见原文相应章节。

举个复杂和抽象的例子,咱们古代人怎么定义伦理道德,非常的漂亮!

伦理道德的“德”字怎么定义的?什么叫道德?道德规范是什么,它是个相对的定义,随着时间和人群而变化。我刚来美国的时候,美国社会不许堕胎、不许同性恋,现在都可以了。中国以前妇女都不许改嫁。甚至到几十年前,我在家乡都听说这样的规矩:如果一个妇女在路上,她的影子投到一个长老身上,那是大不敬,所以走路必须绕开,这就是一种社会规范。

中文这个“德”字你看左边是双人旁,双人旁其实不是两个人,双人旁在甲骨文画的是十字路口(见最右边那个图),十字路口就是说你是要做个选择,是个决策。你怎么选择?比如说一个老人倒在地上,你是扶他还是不扶他?这就是一个选择。贪不贪污、受不受贿这都是内心的一个选择。这个选择是你心里面做出的,所以下面有个心字。

**社会不可能把大量规则逐条列出来,一个汉字也没法表达那么多的内容。**在做选择的时候,必须考虑周围人的看法,人家脑袋里会怎么想,才决定这个东西做不做。所以,如果没有上一节讲的认知基础,也就是你如果不能推断别人的思想,那就无法知道道德伦理。

研究机器人的一个很重要的一个问题是:机器要去做的事情它不知道该不该做。那么它首先想一下(就相当于棋盘推演simulation):我如何做这个事情,人会有什么反应,如果反应好就做,如果反应不好就不做,就这么一个规则。以不变应万变。

那它怎么知道你怎么想的呢?它必须先了解你,你喜欢什么、厌恶什么。每个人都不一样,你在不同的群体里面,哪些话该说,哪些话不该说,大家心里都知道,这才是交互。

两个人之间至少要表达五个脑袋minds:我知道的东西、你知道的东西、我知道你知道的东西、你知道我知道的东西、我们共同知道的东西。还有,对话的时候你的意图是什么等等诸多问题。

第八节 博弈伦理:获取、共享人类的价值观

哲学和经济学里面有一个基本假设,认为一个理性的人(rational agent),他的行为和决策都由利益和价值驱动,总在追求自己的利益最大化。

这个价值观我们把它表达为一个利益函数Utility function,用一个符号U表示。它通常包含两部分:(1)Loss损失函数,或者Reward奖励函数;(2)Cost消费函数。就是说,你做一件事得到多少利益,花费多少成本。我们可以把这个利益函数定义在流态的(fluents)空间里面。我们每次行动,改变某些流态,从而在U定义的空间中向上走,也就是“升值”。由函数U对流态向量F求微分的话,就得到一个“场”。

我们假设一个人在某个时期,他的价值取向不是矛盾的。比如,如果他认为A比B好,B比C好,然后C比A好,那就循环了,价值观就不自恰。这在场论中就是一个“漩涡”。一个处处“无旋”的场,就叫做一个保守场。其对于的价值观U就是一个势能函数。所谓“人往高处走、水往低处流”说的是社会和物理的两个不同现象,本质完全一致。就是人和水都在按照各自的势能函数在运动!那么驱动人的势能函数是什么呢?

人与人的价值不同,就算同一个人,价值观也在改变。这里的价值观指的是一些最基本的、常识性的、人类共同的价值观。比如说把房间收拾干净了,这是我们的共识。这些共识推动的人的发展和决定着人的行为。

对比两大类学习方法。
**归纳学习 Inductive learning。**我们通过观察大量数据样本,这些样本就是对某个时期、某个地域、某个人群达成的准平衡态的观察。也是我前面谈过的千年文化的形成与传承。归纳学习的结果就是一个时空因果的概率模型,

**演绎学习 Deductive learning。**这个东西文献中很少,也就是从价值函数(还有物理因果)出发,直接推导出这些准平衡态。比如,诸葛亮到了祁山,先查看地形,知道自己的队伍、粮草情况,摸清楚对手司马懿的情况(包括性格)。然后,他脑袋里面推演,就知道怎么布局了。

AlphaGo先是通过归纳学习,学习人类大量棋局;然后,最近它就完全是演绎学习了。AlphaGo的棋局空间与人类生存的空间复杂度还是没法比的。而且,它不用考虑因果关系,一步棋下下去,那是确定的。人的每个动作的结果都有很多不确定因素,所以要困难得多。

第九节 机器人学:构建大任务平台,调动各种模块,各种任务泛化于各种场景

机器人就是这么一个大任务的科研平台。它不仅要调度视觉识别、语言交流、认知推理等任务,还要执行大量的行动去改变环境。

前面介绍过,人和机器人要执行任务,把任务分解成一连串的动作,而每个动作都是要改变环境中的流态。
我把流态分作两大类:

  1. 物理流态 (Physical Fluents):如刷漆、烧开水、拖地板、切菜。
  2. 社会流态 (Social Fluents): 如右边,吃、喝、 追逐、搀扶,是改变自己内部生物状态、或者是与别人的关系。

当机器人重建了三维场景后(在谈视觉的时候提到了,这其实是一个与任务、功能推理的迭代生成的过程),它就带着功利和任务的眼光来看这个场景。如下图所示,哪个地方可以站,哪个地方可以坐,哪个地方可以倒水等等。下面图中亮的地方表示可以执行某个动作。这些图在机器人规划中又叫做Affordance Map。意思是:这个场景可以给你提供什么?

有了这些单个基本任务的地图,机器人就可以做任务的规划。这个规划本身就是一个层次化的表达。其实相当复杂,因为它一边做,一边还要不断看和更新场景的模型。对环境三维形状的计算精度是根据任务需要来决定的。某个动作计划的过程还要考虑因果、考虑到场景中别人的反应。考虑的东西越多,它就越成熟,做事就越得体、不莽莽撞撞。

第十节 机器学习:学习的极限和“停机问题”,学到什么程度就可以了

前面谈的五个领域,属于各个层面上的“问题领域”,叫Domains。我们努力把这些问题放在一个框架中来思考,寻求一个统一的表达与算法。而最后要介绍的机器学习,是研究解决“方法领域”(Methods),研究如何去拟合、获取上面的那些知识。

首先,到底什么是学习?
学习是一个交互的过程。

  1. 被动统计学习passive statistical learning:上面刚刚谈到的、当前最流行的学习模式,用大数据拟合模型。
  2. 主动学习active learning:学 生可以问老师主动要数据,这个在机器学习里面也流行过。
  3. 算法教学algorithmic teaching:老师主动跟踪学生的进展和能力,然后,设计例子来帮你学。这是成本比较高的、理想的优秀教师的教学方式。
  4. 演示学习learning from demonstration:这是机器人学科里面常用的,就是手把手叫机器人做动作。一个变种是模仿学习immitation learning。
  5. 感知因果学习perceptual causality:这是我发明的一种,就是通过观察别人行为的因果,而不需要去做实验验证,学习出来的因果模型,这在人类认知中十分普遍。
  6. 因果学习causal learning:通过动手实验, 控制其它变量, 而得到更可靠的因果模型, 科学实验往往属于这一类。
  7. 增强学习reinforcement learning:就是去学习决策函数与价值函数的一种方法。

学习的极限是什么?停机条件是什么?
学习的停机问题,就是这个学习过程怎么终止的问题。

  1. 教与学的动机:老师要去交学生一个知识、决策、价值,首先他必须确认自己知道、而学生不知道这个事。同理,学生去问老师,他也必须意识到自己不知道,而这个老师知道。那么,一个关键是,双方对自己和对方有一个准确的估计。
  2. 教与学的方法:如果老师准确知道学生的进度,就可以准确地提供新知识,而非重复。这在algorithmic learning 和 perceptual causality里面很明显。
  3. 智商问题:如何去测量一个机器的智商?很多动物,有些概念你怎么教都教不会。
  4. 价值函数:如果你对某些知识不感兴趣,那肯定不想学。价值观相左的人,那根本都无法交流,更别谈相互倾听、学习了。比如微信群里面有的人就待不了,退群了,因为他跟你不一样,收敛不到一起去,最后同一个群的人收敛到一起去了,互相增强。这在某种程度上造成了社会的分裂。

这个学习条件的设定条件不同,人们学习肯定不会收敛到同一个地方。中国14亿人,有14亿个不同的脑模型,这14亿人中间,局部又有一些共识,也就是共享的模型。

我说的停机问题,就是这个动态过程中所达成的各种平衡态。

第十一节 总结:智能科学 — 牛顿与达尔文理论体系的统一

“物理世界存在着完整的因果链条。”人工智能的研究,到目前为止,极少关注这个科学的问题。顶级的工程学院也不教这个事情,大家忙着教一些技能。解决一些小问题,日子就能过得红红火火。80年代有些知名教授公开讲智能现象那么复杂,根本不可能有统一的解释,更可能是“a bag of tricks”一麻袋的诡计。有一些“兵来将挡、水来土掩”的工程法则就行了。这当然是肤浅和短视的。

物理学把生物的意志排除在研究之外,而这正好是智能科学(人工智能更进一步的发展)要研究的对象。智能科学要研究的是一个物理与生物混合的复杂系统。

研究的物理与生物系统有两个基本前提:

  1. 智能物种与生俱来的任务与价值链条。这是生物进化的“刚需”,动物的行为都是被各种任务驱动的,任务由价值函数决定,而后者是进化论中的phenotype landscape,通俗地说就是进化的适者生存。达尔文进化论中提出来进化这个概念,但没有给出数学描述。后来大家发现,基因突变其实就是物种在这个进化的、大时间尺度上的价值函数中的行动action。我前面那个叠衣服的价值函数地形图,就是从生物学借来的。
  2. 物理环境客观的现实与因果链条。。这就是自然尺度下的物理世界与因果链条,也就是牛顿力学的东西。

说到底,人工智能要变成智能科学,它本质上必将是达尔文与牛顿这两个理论体系的统一。

《浅谈人工智能:现状、任务、构架与统一》感悟总结相关推荐

  1. 朱松纯:浅谈人工智能:现状、任务、构架与统一 感悟以及部分内容的概括

    原稿:https://mp.weixin.qq.com/s/-wSYLu-XvOrsST8_KEUa-Q 本文是对朱松纯:浅谈人工智能:现状.任务.构架与统一一文的感悟以及部分内容的概括,原稿如上. ...

  2. 沈向洋:浅谈人工智能创造

    来源:AI科技评论 本文约7000字,建议阅读10分钟 本文为你介绍沈向洋的<浅谈人工智能创造>,分享过去六年其在微软小冰身上得到的一些实践想法. 2020年9月21日上午9点,由北京大学 ...

  3. 软件工程:浅谈人工智能软件开发与传统软件开发的区别

    题目:浅谈人工智能软件开发与传统软件开发的区别 摘要:人工智能的飞速发展带动着软件工程的发展,最终使得软件工程产生新的变革.因为人工智能特有的性质,因而导致了人工智能软件与传统软件的差异性.本文对比了 ...

  4. 浅谈人工智能的伦理问题

    浅谈人工智能的伦理问题 资料整理,仅供参考 引言 2018  年3月 18日晚上 10 点左右,伊莱恩·赫兹伯格(Elaine Herzberg)骑着自行车穿过亚利桑那州坦佩市的一条街道,突然间被一辆 ...

  5. 浅谈人工智能的工作原理

    众所周知人工智能现在快速发展,并且为众人所熟知,不仅如此,人工智能也在各行各业中广泛使用.那么人工智能的工作原理是什么呢? 浅谈人工智能的工作原理 人类智能由三个部分构成(还有些其他生物学和科学现象也 ...

  6. 人工智能-浅谈人工智能

    1 浅谈人工智能 1.1 人工智能的概述 人工智能(Artificial Intelligence),英文缩写为AI.它是研究.开发用于模拟.延伸和扩展人的智能的理论.方法.技术及应用系统的一门新的技 ...

  7. 浅谈计算机技术与人工智能,浅谈人工智能与计算机.doc

    文档介绍: 浅谈人工智能与计算机学生:xx学号:xxxxxxxxxxx专业:计算机科学与技术学院xxxx班2016年12月10号摘要从1956年达特茅斯会议到今年整整一甲子的时间里,我们已经进入了人工 ...

  8. ai在计算机教学中的应用,浅谈人工智能在教育中的应用

    浅谈人工智能在教育中的应用 孙立友 摘要:随着人工智能技术的进步,以及研究的深入和在教育领域的逐步推广,对教育领域产生了深远的影响.人工智能对于弥补当前教育存在的种种缺陷和不足,推动教育发展改革和教学 ...

  9. 蛋花花浅谈人工智能主要应用于哪些方面

    蛋花花浅谈人工智能主要应用于哪些方面,人工智能在IT领域被炒的火热,现在在网上有不少相关报道.据蛋花花了解目前人工智能领域的发展依然处在初级阶段,整个人工智能领域还有大量的课题需要攻关.下面蛋花花就简 ...

  10. 浅谈人工智能:现状、任务、构架与统一

    引言 第一节 现状:正视现实  第二节 未来:一只乌鸦给我们的启示  第三节 历史:从"春秋五霸"到"战国六雄"  第四节 统一:"小数据.大任务&q ...

最新文章

  1. KEGG功能注释工具 KofamKOALA 安装与使用
  2. 10、kubernetes 核心技术-Secret、ConfigMap
  3. python入门语句_Python 快速入门笔记(5):语句
  4. c#结合emgucv进行人脸检测_人脸识别与测温结合在办公场景有哪些应用?
  5. 逆序对java_算法导论学习||查找逆序对
  6. 关于假冒网站仿冒网易云信官网相关情况的声明
  7. leetcode-14-最长公共前缀
  8. 小知识:常用开源协议详细解析
  9. vue-cli2、vue-cli3脚手架详细讲解
  10. 实例构造器与类型构造器
  11. 支持tls的tcp服务器,TCP+TLS
  12. 条款28:避免返回handles指向对象内部的成分(Avoid returning handles to objects internals)...
  13. 通过Spring Boot中的手动Bean定义提高启动性能
  14. 图书馆借阅系统java参考文献_基于java的图书馆管理系统
  15. matlab2018A配置cuda,使用教程 | matlab 2018a + cuda 10.1 + vs 2017
  16. RT-Thread : IEEE1588/PTP 协议的实现
  17. 互联网从此没有 BAT
  18. Oracle无法标识锁定数据文件,启动错误ORA-01157: 无法标识/锁定数据文件 解决方案...
  19. Android当方法总数超过64K时(Android Studio)
  20. 世界顶级黑客,都有哪些神仙操作?这篇文章带你了解一下!

热门文章

  1. 基于ZYNQ平台的卷积神经网络加速器设计及其应用研究
  2. Direct3D中的四大变换
  3. Android平台的手机记账应用开发全程实录
  4. 使用pyecharts制图
  5. @Transactional 注解概述(IT枫斗者)
  6. ppt取色html,网页安全色取色器
  7. 数影周报:LastPass 的客户数据再泄露,天猫向 ofo 及戴威索要 5 亿借款
  8. vb实验用计算机安排考试日程,vb实验报告副本.docx
  9. Android Edittext只能输入汉字和英文
  10. WPS怎么打印到一张纸上?