目前建立超人类通用人工智能的道路可以分为两个阶段:第一个阶段,创造达到人类水平的通用人工智能;第二个阶段,在实现第一阶段的基础上朝未知领域发展。其中第二个阶段就是古德(I. J. Good)在1965年提到的“智能爆炸”,引述如下:

超智能机器就是远超所有人任何智力活动的机器。由于设计这种机器也是一种智力活动,超智能机器能够设计出更加智能的机器。毫无疑问,这样一来就会出现“智能爆炸”,人类智能将被远远地甩在后面。因此,人类只需设计一台超智能机器就足够了。

有些人可能会反对孤立地看待“智能爆炸”,而倾向于强调其连续性——不仅强调其与创造超人类通用人工智能的衔接,还强调其与生命起源伊始(甚至更早)地球上规模更大、耗时更长的智能“爆炸”的联系。尽管我认为这一宏观看法很有价值,但我更觉得按照古德的方式认清智能爆炸的单一特质非常重要。进化了的人类在无意识追求进化的过程中发明了工程设计,但工程设计与进化并不是一回事。人工智能的递归式自我完善与自然选择驱动的人类智能的演进,二者的特征是不同的。

我自己的研究工作旨在完成第一阶段,即“创造达到人类水平的通用人工智能”,不仅要使人类能够迅速从中受益,还要有利于向第二阶段过渡,即古德提出的“智能爆炸”。我向来觉得,一旦达到人类水平的通用人工智能实现了,古德所说的“智能爆炸”就会自然发生。不过,这场“爆炸”要花上数月(似乎不可能)、数年(好像很可能)、数十年(可能)还是数百年(在我看来,几乎不可能),目前尚不清楚。但数字化的、达到人类水平的通用人工智能分析、改善自身,使其通用智能呈指数级增长的潜力是显而易见的。要研究、改进人脑很难,因为它不是通过分析和改善形成的。人造系统的建构方式与此不同,有很多方式可以提升它。无疑,从人类水平的通用人工智能过渡到超人水平的通用人工智能面临很多困难,但这些困难与理解并改善人脑或者实现人类水平的通用人工智能性质完全不一样。

但不出所料,并非所有的未来主义思想家都认同古德的观点。怀疑者往往会列举一些哪怕人类水平通用人工智能实现,仍然会存在的限制“智能爆炸”发生的因素。2010年,在讨论Extropy的邮件列表中,未来主义学家安德斯·桑德伯格(Anders Sandberg)就明确提出了一些限制因素:

参加关于智能爆炸的冬季智能研讨会时,让我大吃一惊的是有些人对人工智能、脑模拟集,以及经济的递归式自我改善的速度竟这么有信心。有些人认为这一速度比适应社会和进化要快(形成赢家通吃的局面),还有一些人认为多种超级智能出现的速度会非常慢。这一问题是关于奇点的许多关键问题的根源(一种还是多种超级智能?友善有多重要?)。
下列内容非常有趣:你认为影响智能自我提高速度的关键限制因素是什么?
(1)经济增长率。

(2)投资规模。

(3)实证资料收集(实验、与环境互动)。

(4)软件复杂性。

(5)硬件需求与可用硬件。

(6)带宽。

(7)光速延时。

当然还有许多其他因素。但是其中哪一个才是最大的限制因素?而这又是如何衡量的呢?

安德斯提出这些问题之后,通用人工智能研究人员理查德·卢斯莫尔(Richard Loosemore)发文回应,详细解释为何他认为上述因素的影响都不严重。我非常认同理查德的观点,便问他能否稍加整理,写成文章发表在《超人类主义杂志》上,他欣然同意。后来他与我合作撰文,以他回应安德斯的邮件内容为基础,共同完成了题为“为何智能爆炸可能成真”(Why An Intelligence Explosion is Probable)的文章。

下文就是我与理查德一起合作的文章……

为何智能爆炸可能成真

——理查德·卢斯莫尔和本·戈策尔

本章原本是发表在《超人类主义杂志》上的一篇文章,开头部分参见上文列举的安德斯·桑德伯格提出的各种限制因素。

感谢桑德柏格提出这些问题,这些问题使我们能够在本文中就智能爆炸是否可能发生面临的种种质疑进行明确的反驳。我们旨在解释为何这些限制因素不会形成重大阻力,为何古德预言的智能爆炸很有可能成真。

智能爆炸的一大前提

首先,我们需要为论点划定范围和背景,尤其需要明确指出哪种智能系统能够导致智能爆炸。按照我们的理解,智能爆炸要发生需要一个绝对的前提条件,即通用人工智能聪明到足以理解自己的设计原理。事实上,我们为它定名“通用人工智能”,言下之意就是它能够理解自身,因为通用人工智能的定义就是它拥有广泛的智能,其中包括人类拥有的一切智能——届时,至少有一部分人能够理解通用人工智能的设计原理。

但人类之间彼此掌握的技能和知识也不同,因此要引发智能爆炸,通用人工智能就必须拥有非常先进的智能,使其能够分析和设想如何操控和改善智能系统的设计。并非所有人都能理解通用人工智能的设计原理,因此符合最低要求的通用人工智能(比如智能到能够胜任家庭勤杂工的系统)未必有能力从事通用人工智能实验研究。缺少后一种先进的通用人工智能,就不会发生智能爆炸,智能水平只会逐步提高,因为限制其发展速度的因素仍然是人类思考的深度和广度。

此处所说的全能型通用人工智能可称作“种子通用人工智能”,但我们更倾向于使用不那么引人注目的“能够理解自身的、相当于人类水平的通用人工智能”这一说法。这个术语虽然准确,但比较冗长,所以我们有时使用“第一代真正的通用人工智能”或“第一代通用人工智能”指代同一概念。事实上,这表明我们认为真正的通用人工智能必须能与人类智能的最高水平相匹敌,而不仅仅是符合最低标准。因此,“第一代通用人工智能”能够引发智能爆炸。

区分智能爆炸和智能蓄积

考虑到引发智能爆炸的前提条件是研制出能够理解自身、相当于人类水平的通用人工智能,能够将此前的准备工作(即第一代真正的通用人工智能研发、受训的阶段)算作智能爆炸的一部分吗?我们认为这样做是不恰当的,智能爆炸的真正起点应是合格的通用人工智能开始从事通用人工智能实验研究。这与其他人对智能爆炸一词的理解不同,但与古德最初的用法一致。因此,本文中我们的任务是要证明在能够理解自身、相当于人类水平的通用人工智能问世的前提下,为何发生智能爆炸的概率非常高。

之所以事先假设这一前提,是为了避免类似的关于这一前提能否实现的争论,甚至衍生出新的争论。而是否能够创造“种子”通用人工智能以及要花多久才能实现,这个问题的性质就不同了。2009年的通用人工智能大会上,我们请与会专家做了问卷调查,调查结果发表在2010年《超人类主义杂志》刊登的一篇文章中。在那次样本显然不算公允的调查中,大多数专家认为人类在21世纪中叶将研制出这种通用人工智能,虽然也有许多专家认为其问世时间要比这个时间晚很多。

何为“爆炸”

要称得上“爆炸”,其规模要有多大?耗时要多久?速度要多快?

古德最初的定义考虑更多的是爆炸的起点而不是终点,也不是其程度,更不是其中后期的速度。他认为,短时间内达到人类水平的通用人工智能很可能发展成强大的超人类的通用人工智能,但他并未指出随后人工智能将不受限制地继续升级。我们和古德一样主要对从人类水平的通用人工智能过渡到比人类智能高出2~3个数量级的通用智能(即100H或1000H,1H表示人类的通用智能)进行研究。这不是因为我们怀疑在这之后智能爆炸能否延续,而是因为这对人类目前的智能水平而言太遥不可及。

我们认为如果通用人工智能要将其进行科技实验研究的能力提高到比人类发现新知识和发明的速度快上100倍甚至1000倍的水平,那样的世界要比现在紧张刺激得多。在1000H的世界中,通用人工智能科学家将能够利用高中物理知识一天内发现相对论(假设1000这个因数全部加在思维的速度上,对此稍后将详细讨论)。无论人类将来有多大提升,这都与纯粹的人类创造的世界有天壤之别。如果没有通用人工智能,未来的“爱因斯坦”似乎不可能一天早上醒来,第二天就能利用自己掌握的儿童水平的科学知识推导出相对论,所以通用人工智能的发展引发“智能爆炸”这一说法一点都不夸张。

不过究竟要多快才能称得上爆炸:第一代通用人工智能从1H过渡到1000H用100年时间够吗?还是说只有速度更快才能称得上“智能爆炸”?

对此或许没有必要过早下结论。即使用上百年达到1000H的水平,也意味着世界将发生翻天覆地的变化。我们认为最简单的立场是:如果人类能够创造出可自发创造更高水平智能的智能,这就已经是了不起的飞跃了(因为目前我们只能创造智能为1H的机器人),所以哪怕这个过程相当缓慢,仍可称作“智能爆炸”。它可能算不上“宇宙大爆炸”,但至少这段时间智能将不断升级,最终形成一个1000H世界。

定义智能(或无须定义)

提到“智能爆炸”,首先要明确“智能”和“爆炸”分别是什么意思。因此值得思考的是,目前通用智能的衡量指标都不够精确、客观,未能突破人类智能范围。

然而,既然“智能爆炸”是一个定性概念,我们认为按照常识理解智能的性质就足够了。我们无须确切的衡量指标,就可以详细讨论桑德伯格提出的限制因素。我们认为智能爆炸能够创造远超人类的通用人工智能系统,就好比人类智能远超老鼠和蟑螂,但我们不会费力确定老鼠和蟑螂的智能究竟是什么水平。

智能爆炸的核心属性

对桑德伯格提出的具体因素进行详细分析之前,我们先对其做个简要介绍。

  • 内在的不确定性。尽管我们竭尽全力去探究智能爆炸如何发生,但实际情况却是,它受到很多因素的相互影响,很难得出确切的结论。这是一个复杂系统,各种因素相互交织,哪怕最最微小的、出乎意料的因素最终也有可能阻碍或者触发智能爆炸。因此,这个问题存在很大的不确定性,我们的结论应避免绝对化。
  • 普遍与特定的不同论证。关于智能爆炸能否发生,有两条思路:其一是基于普遍考虑,另一条思路则关注实现通用人工智能的特定途径。一位通用人工智能研究人员(如本文作者)可能认为他们了解创造通用人工智能的许多技术工作,凭此一点,他们就坚信智能爆炸可以实现。本文我们只讨论第一种相对不会引起争议的思路,暂不考虑个人对创造通用人工智能的影响因素的理解。
  • • “蝙蝠侠”情节。第一代能够理解自身、相当于人类水平的通用人工智能问世时,它不可能诞生于花园尽头的小棚子里一位与世隔绝的发明家之手。“孤独的发明者”(或“蝙蝠侠”)这样的剧情多半不现实。通信技术的进步促进了文化交流,技术发展与各方信息交流联系越来越密切。单枪匹马的发明家不可能将合作进行一个项目的多人团队远远甩在身后。考虑到现代技术发展的本质,这种艰难、耗时的项目不可能悄无声息地进行。
  • 不被认可的发明。能够理解自身、达到人类水平的通用人工智能问世后,被束之高阁、无人问津似乎不太可能。通用人工智能不大可能会像电话或留声机刚问世时那样默默无闻。当今时代,实用性技术的发展广为传播,能获得大量的资金和人力投资。当然,目前通用人工智能因种种原因得到的投资相对较少,但功能强大的达到人类水平的通用人工智能一旦问世,情况可能就大不相同了。这直接关系到桑德伯格提出的经济因素。
  • 硬件要求。第一代达到人类水平的通用人工智能对硬件的要求要么极高(如超级计算机水平),要么就极低。这种极端的分歧非常重要,因为短期内大规模生产世界级的超级计算机硬件并非易事。或许我们能够尽力生产数百台这样的机器,但几年内生产上百万台是不可能的。
  • 智能vs速度。智能加速有两种方式:一是智能系统的速度加快(时间加速),二是思维机制的改进(“思想深度”增加)。显然,二者可以同时进行(可能互补),但后者似乎更难以实现,可能受制于一些我们并不了解的限制因素。另外,人们对硬件加速的研究已有很长时间,相比之下更加可靠。注意,这两种方式都能使“智能”增强,因为如果人的思维和创造力的运行速度比目前高出100倍,其功能也会更加强大。一般的通用人工智能系统很可能比狭隘地模仿人脑的智能系统能更加充分地利用硬件。即便事实并非如此,硬件加速仍然能够促进智能的极大提高。
  • 公众认知。智能爆炸发生的方式很大程度上取决于第一代人类水平的、能够理解自身的通用人工智能问世后引发爆炸的速度。例如,假如第一代这种通用人工智能完成智能“翻倍”需要5年时间,这与用两个月的性质完全不同。例如,如果第一代通用人工智能需要配置有特别硬件的、造价极其昂贵的超级计算机,且其运行非常缓慢的话,用上5年时间是很有可能的。另外,如果第一代通用人工智能由开源软件和商用硬件设计制造,要实现智能翻倍只需增加硬件并对软件进行适当调整,那么这个过程两个月就足够了。在前一种情况下,在智能爆炸远超人类智能之前,政府、企业、个人有足够的适应时间。在后一种情况下,智能爆炸就会让人惊诧不已。但人类反应的巨大差异与引发智能爆炸的因素的微小差异相契合。

现在,准备工作已就绪,接下来我们就逐一讨论桑德伯格提出的限制因素。我们将简要解释为何这些因素不会成为重大阻力。其中任何一点都可详细展开,但本文旨在概述要点。

限制因素1:经济增长率和可用投资

达到人类水平的、能够理解自身的通用人工智能系统的诞生必将对世界经济产生重大影响。通用人工智能诞生伊始,这些重大影响足以抵消任何经济增长率相关的限制因素。如果这类通用人工智能问世,拥有先进技术的国家的技术研发部门必将得到巨额投资。例如,当前日本的经济增长率趋于停滞,但功能强大的通用人工智能一旦问世,日本政府和企业必将投入巨额研发资金。

但即使不是出于经济压力而开发这项技术,国际竞争也是一大重要的刺激因素。如果通用人工智能发展到足以引发智能爆炸,各国政府会意识到这是一项重要技术,并会“抢在对手之前”,不遗余力地研发第一代全能型通用人工智能。整个国家经济也将以研发第一代超级智能机为目标,好比20世纪60年代的“阿波罗”计划。经济增长率不仅不会影响智能爆炸,届时智能爆炸还会对其产生决定性影响。

此外,一旦通用人工智能达到人类水平,将立即对各行各业产生重大影响。如果通用人工智能能够理解自身的设计原理,它就能理解并改进其他计算机软件,对软件行业产生革命性影响。由于目前美国市场上绝大多数金融交易都依赖计算机程序化交易系统,因此通用人工智能技术会迅速成为金融行业(通常是最先采用软件和人工智能新技术的行业)不可或缺的工具。它在军方和情报部门也将大有可为。因此,研发出达到人类水平的、能够理解自身的通用人工智能,并且合理分配巨额研发经费以率先研发更加智能的通用人工智能后,大量经费可能用于通用人工智能的实际应用领域,将间接推动其核心研究。

关于这一发展热潮如何进展的细节,尚无定论。但至少我们可以肯定,经济增长率和投资环境对通用人工智能研发并无重大影响。

不过,还有一个有趣的现象。此文撰文时期,全球通用人工智能投资与其他类型的科技投资相比十分微不足道。这种形势是否会无限期延续下去,导致进展缓慢、创造不出任何可行系统,甚至投资者都不相信能够创造出通用人工智能?

这很难判断。但作为通用人工智能研究人员,我们认为(显然主观性很强)“永久寒冬”这种可能性存在很多不确定性,未必可信。由于过去人工智能研究人员的不成熟的观点,如今很多投资者和投资机构对人工智能仍有偏见,不愿投资,不过形势早已开始改变。即使投资回暖无望,我们认为最终通用人工智能获得的投资未必比不上20世纪90年代末的互联网行业。此外,由于相关领域(计算机科学、程序设计语言、仿真环境、机器人技术、计算机硬件、神经科学、认知心理学等)的技术发展,研发先进的通用人工智能越来越不费力。因此,随着时间的推移,通用人工智能发展到足以引发智能爆炸程度所需的投资也会越来越少。

限制因素2:实验过程以及环境交互本身节奏就很慢

之所以考虑这一因素,是因为任何能够引发智能爆炸的通用人工智能要想改进自身,都需要进行实验以及与环境互动。例如,如果它想在速度更快的硬件上运行(这很可能是智能增长最快的路径),就必须建立一个硬件研究实验室,通过实验收集新数据。由于受到实验技术的限制,该进展可能比较缓慢。

关键问题是:有多少研究可能因智能增加而加快速度?这一问题与并行化过程密切相关(就好比不能指望9个女人各怀孕1个月,就能像一位孕妇怀孕9个月那样生出孩子)。某些算法问题不可能因为处理能力提高就轻易解决;同理,某些关键实验也不可能因为做了一些类似的耗时较短的实验就加快速度。

对这一因素我们也不可能事先完全了解,因为有些实验看起来需要的是缓慢的基础性物理过程(例如为研究芯片制作原理而等待硅晶体生长),实际上可能取决于实验者的智能水平,这是我们事先无法预测的。通用人工智能可能不会等待芯片自然生长,而是通过进行一些精妙的小实验,以更快地获得实验信息。

越来越多的工作由纳米级工程来完成似乎证明了这一点,许多进展缓慢的工作流程目前利用纳米级技术可显著增速。而且通用人工智能很可能会加速纳米技术研究,进而形成“良性循环”,及通用人工智能和纳米研究相互促进[纳米技术先驱乔希·霍尔(Josh Hall)已预见了这一点]。当今的物理学理论甚至还包括非常奇特的飞米技术(femtotechnology),这表明现代科学领域的实验速度不存在绝对的限制。

显然,未来通用人工智能研发速度存在很大的不确定性。然而,有一种观点似乎消除了许多不确定性。决定实证科学研究速度的所有因素中,当今科学家的智能水平和思考速度无疑有举足轻重的影响。任何参与科技研发的人可能都会赞同以下观点:按照我们目前的技术水平,先进的研究项目能否成功,很大程度上取决于能否找到智商高、经验丰富的科学家。

如果因为科学家稀缺或者薪资高昂,世界各地的研究实验室就放弃原本想要解决的问题,那么有没有可能这些实验室同时也达到了实验速度所能进行的极限?很难相信人们会同时到达这两个限制因素的极限,因为它们似乎是相互关联的。如果实验速度和科学家这两大因素不相关,这就意味着即使科学家稀缺,仍然可以断定我们已经发现了所有可能的最快的实验技术,再无任何新颖独特的技术能够让我们克服实验速度的限制。但是,事实上我们有充分的理由相信,如果当前世界上的科学家数量加倍,那么其中一些科学家可能会发现新的实验方法,来超越目前的速度限制。否则,就只能说明我们非常巧合地同时达到了科学人才和数据收集速度的极限——这种巧合不太可能发生。

当前的形势似乎与传闻一致:各大公司抱怨研究人员薪资高昂且供不应求,但他们却不抱怨实验本身的进度过于缓慢。人们似乎普遍认为,增加研究人员就能找到让实验加速以及改进的方法。

因此,基于当前科学与工程的实际(以及知名的物理理论),似乎任何实验速度的极限都还遥不可及。我们尚未达到这些极限,也没有任何依据去推测这些局限具体在哪里。

总而言之,我们似乎很难相信存在一个基本的限制因素,能够阻止通用人工智能实现从1H(人类水平的通用智能)到1000H(举个例子)过渡的智能爆炸。即便没有大量通用人工智能系统的帮助,这个范围内的速度提升(比如说计算机硬件的速度)也是预料之中的,因此这些限制因素自身就不可能阻止通用人工智能从1H 过渡到1000 H,以实现智能爆炸。

限制因素3:软件复杂度

这一因素说的是为了实现智能爆炸,通用人工智能必须开发的软件的复杂程度。其前提是,即使对能够理解自身的通用人工智能来说,升级自身软件一事也十分复杂,难以应付。

这似乎不能算作限制因素,因为通用人工智能可以将软件弃之不顾,转而开发运行速度更快的硬件。只要通用人工智能能够设法使其时钟速度加快千倍,就有可能实现智能爆炸。

如果你认为软件复杂度会阻止第一代人类水平、能够理解自身的通用人工智能的开发,那就是另外一回事了。软件复杂度可能会通过阻碍先导事件的发生而阻止智能爆炸,不过这个问题的性质不同。正如上文解释过的,当前分析的前提是通用人工智能能够实现。本文篇幅有限,在此不做赘述。

而且,如果通用人工智能系统能够像人类那样理解其自身的软件,它就能够对软件进行比人类所做的更加复杂的改进,因为在很多方面,数字计算机基础设施比人类的“湿件”(即人脑)更适合软件开发;而且通用人工智能软件可直接连接编程语言翻译器、形式认证系统和其他与编程有关的软件,这是人脑做不到的。这样一来,通用人工智能系统面临的软件复杂性问题就比人类程序员要小许多。但这不是关键问题,因为即便软件复杂度会给通用人工智能系统造成很大影响,我们还可以转而讨论如何加快时钟速度。

限制因素4:硬件要求

上文中我们已经提到过,智能爆炸很大程度上取决于第一代通用人工智能是否需要大型的、世界级的超级计算机,或者是否需要更加小型的计算机。

这可能会影响智能爆炸的初始速度,因为人们能够复制多少第一代通用人工智能是一个非常关键的因素。这一点为何十分关键?因为复制先进的、经验丰富的通用人工智能系统的能力是智能爆炸最核心的问题之一。人类的智能不能通过复制成年技术人员而延续,因此每一代人都要从头开始发展智能。但如果通用人工智能在某一重要领域成为世界级专家,人类就可以对它进行任意次数的克隆,马上就能为其创造工作伙伴。

然而,如果第一代通用人工智能必须在超级计算机上运行,就很难实现大规模复制了,智能爆炸速度就会放缓,因为复制率在很大程度上决定了智能生产率。

不过,随着时间的推移,由于硬件成本下降,复制率会增加。这意味着高级别智能问世的速度会增加。这些高级别智能随后会被用来改善通用人工智能的设计(至少会增加新型、更快速硬件的生产率),这反过来又有助于提高智能生产率。

因此我们认为,就算第一代通用人工智能需要超级计算机软件,这也只会在智能爆炸的初始阶段对其产生抑制作用,智能爆炸终将来临。

另外,如果硬件要求不那么高(极有可能),智能爆炸将飞速发展。

限制因素5:带宽

除了上文提到的对成熟的通用人工智能进行克隆,实现目前人类无法做到的知识复制,通用人工智能还可以利用高带宽信道进行交流。这是一种通用人工智能系统间带宽,是两种影响智能爆炸的带宽因素之一。

除了通用人工智能系统之间的交流速度,单一系统内也可能存在带宽限制,导致单一系统智能很难提高。这称为通用人工智能系统内带宽。

第一个因素(即系统间带宽)不可能对智能爆炸产生重大影响,因为许多研究问题可进一步细分,然后逐一解决。只有当我们发现在智能扩增项目进行时通用人工智能无所事事,我们才会注意到通用人工智能之间的带宽,因为它们已到达爆炸点,正等待其他通用人工智能与其交流。考虑到智能和运算的很多方面可以改进,这一想法似乎不太可能。

通用人工智能内部带宽的情况则不同。内部带宽成为限制因素的一种情况是,通用人工智能系统的工作记忆容量取决于系统中的一个关键组件是否需要彻底联通(任何事物都与其他事物相连)。这种情况下,由于带宽要求大幅增加,我们很难增加通用人工智能的工作记忆,对工作记忆设计的限制可能会严重影响系统的智能水平。

但是,我们应注意到,这些因素对智能爆炸的初始阶段不会产生影响,因为在带宽这一限制因素发挥作用之前,通用人工智能的时钟速度可能还会提高几个数量级的水平。其中主要原因是神经信号速度非常慢。如果仿人脑的通用人工智能系统(不必完全模仿人脑,只需复制人脑的高级功能)的构件拥有和神经元一样的处理能力和信号速度的话,这个通用人工智能的信息包的交换频率就是每毫秒一次。这一智能系统将有很大空间加快信号速度,提高智能水平。处理单元如果在其中发挥作用的话,也必须加快速度,但问题的重点是带宽并非关键问题。

限制因素6:光速延时

此处我们需要考虑狭义相对论对宇宙中信息传输速度的影响。但就通用人工智能系统而言,它的影响与带宽的影响相差无几。

如果通用人工智能系统的构件彼此间隔较大,导致大量数据(假设)无法及时传输,这时光速延时就成为一个重要问题。但在智能爆炸初始阶段,它们似乎还不会产生影响。再次强调一下,这一观点源于我们对人脑的了解程度。我们知道大脑的硬件是由生物化学因素决定的。人体的绝大部分元素是碳,而不是硅和铜,因此大脑中没有电子芯片,只有充满液体的“小管道”和分子。但如果大自然只能选择离子通道这一方式,我们用硅和铜(尚且不算其他即将面世的更为奇特的计算基质)就能大幅加快信息传输速度了。我们只需为硅和铜制造传输膜去极波,如果这能使速度增加1000倍(保守估计,因为这两种信号本质不同),就将引发名副其实的智能爆炸。

这一推论在以下情况下不成立:出于某些原因,大脑同时受到两种限制,一方面与碳有关,另一方面与光速延时有关。这意味着在我们能够做到大幅加速之前,大脑中的非碳部分将会先面临光速限制的问题。这要求两种限制因素高度一致(以同样的水平同时发挥作用),我们认为这种可能性是非常小的,因为这将导致一种非常奇怪的现象:进化过程会分别试用生物神经元和硅,对二者的性能进行逐一对比后,再选择能够将信息传输效率提高到峰值的那一个。

限制因素7:人类水平的智能可能要求量子(或者更奇特的)运算

最后我们来看一个桑德伯格没有提到,但公众、甚至科学文献中不时提起的限制因素。当代通用人工智能领域盛行的一个假设是人类水平的智能最终将在数字计算机上实现,但当前的物理学原理却表明,要在不严重减速的情况下模拟某些物理系统,需要“量子计算机”这种专门系统而不是普通的数字计算机。

目前尚无证据表明人脑是自然系统。当然人脑有专门的量子机制,但没有证据表明在与人类智能直接相关的层面存在量子相干性。事实上,当前的物理学表明这是不可能的,因为在类似人脑的系统中尚未发现量子相干性。此外,即便人脑在一定程度上依赖量子计算,也并不表示量子计算对人类水平的智能来说必不可少,因为针对同一个算法问题通常有多种方法。而且,即使量子计算对通用智能来说必不可少,它对智能爆炸的影响也非常有限,而相应的量子计算硬件已经研发问世了,研发这类硬件早已是研发领域的一大课题。

罗杰·彭罗斯(Roger Penrose)、斯图尔特·哈梅罗夫(Stuart Hameroff)以及其他几位研究人员表示,人类智能甚至还依赖“量子引力计算”,这比普通的量子计算功能更加强大。这完全是凭空猜测,在当前科学领域没有任何根据,所以不值得详细讨论。但一般来说,人们会像考虑上文提及的关于量子计算的观点那样对其进行思考。

从通用人工智能到智能爆炸的路径似乎已清晰可见

总之,我们对桑德伯格提出的限制因素进行相对详细的分析后,得出的结论是:目前我们有理由相信人类水平的、能够理解自身设计原理的通用人工智能问世后,智能爆炸会紧随其后。

此处“智能爆炸”的定义涉及思维速度(或许也包括“思维深度”)增加2~3 个数量级。如果有人坚称真正的智能爆炸必须要智能增加百万倍或万亿倍,那么我们认为现阶段的分析无论如何也得不出合理的结论。但如果通用人工智能(智能值为1000H)能够使未来1000年的新科技在一年内问世(假设物理实验的速度不算重要因素),倘若这还称不上智能爆炸,也未免过于苛刻。这样级别的智能爆炸将开启一个我们当前的科学、技术以及概念无法应对的新世界。因此,最好等到智能爆炸取得显著进展后再做下一步预测。

当然,就算上述分析正确无误,关于智能爆炸仍有很多未解之谜,我们知道究竟哪种通用人工智能系统会引发智能爆炸,才能了解个中详情。但我们认为,目前人们不应再质疑智能爆炸能够发生了。

本文摘自《奇点将至》

[美]本·戈策尔(Ben Goertzel) 著,付云鹤,杜甜甜,张璐璐译

“奇点”在数学上是指使某条曲线或某个面以无限快的速度变化的点。未来学家雷.库兹韦尔预测技术奇点将会在2045年降临。但AI研究者本.戈策尔却认为,如果能够将足够的资源应用在正确的研究项目上,奇点有可能会更早降临。等到人工智能技术奇点到来的这一天,我们的生活将会发生翻天覆地的变化。

奇点真的会到来吗?哪些现有技术*有可能引起强大的通用人工智能系统的快速出现?这些技术的出现会对人类生活产生什么样的影响?我们在探究这些问题时,会使用到哪些哲学、科学和精神上的概念?终结者类型的通用人工智能出现的概率有多大?更友好的高级人工智能对人类和其他文明发挥有益作用的场景出现的概率又有多大?展望一个迥然不同的以人工智能为中心的未来,我们的当务之急是什么?

作者在书中给了我们答案。

1.《奇点将至》不仅包含人工智能领域的前沿发展成果、专家意见,更从哲学角度阐释了这些科学概念,在严谨的科学背景的基础上有着浓厚的人文色彩;

2.《奇点将至》结合工业4.0、3D打印技术以及“深蓝”“沃深”“《危险边缘》”等社会广泛讨论的话题,来阐释人工智能发展的一些重要问题,虽然信息量大,涉及问题众多,但深入浅出、通俗易懂。

3.作者本·戈策尔博士为通用人工智能领域的杰出研究者,本书汇集了他多年为《超人类主义杂志》及其它期刊所作的文章,每篇文章都有一段简短的引言用来叙述该文章的来龙去脉,从不同的角度探讨人工智能领域的热门问题并对未来进行了展望,引人深思,发人深省。

为何智能爆炸可能成真?相关推荐

  1. 智能爆炸不会发生,AI将线性发展:Keras作者François Chollet热文

    在 Keras 作者 François Chollet 的眼中,无论是库兹韦尔的「奇点」还是<三体>中的「技术爆炸」都不会发生在人类社会.以及未来 AI 技术的发展中.这位著名谷歌工程师最 ...

  2. 淘宝退款崩溃;马云预言成真;谷歌推新API | 极客头条

    「CSDN 极客头条」,是从 CSDN 网站延伸至官方微信公众号的特别栏目,专注于一天业界事报道.风里雨里,我们将每天为朋友们,播报最新鲜有料的新闻资讯,让所有技术人,时刻紧跟业界潮流. 快讯速知 淘 ...

  3. Aztec协议上线:V神「匿名以太坊梦」成真

    来源 | 碳链价值 编译 | Alice.江小鱼 责编 | Carol Aztec 协议能提供开发者需要的工具来创建下一代去中心化金融服务,重新构建具有绝对隐私且私密化治理的数字资产. 区块链是一个开 ...

  4. “拓界 成真”戴尔传递着Ta的“中国情”……

    本文作者:从墨 作为一家扎根中国二十一年的企业,目前有2个全球服务中心在中国,有3个工厂.4个高层客户访问中心.8个研发中心.45个办事处.分公司在全国45个地区,共计12500名员工.如果对你说,其 ...

  5. 鸿蒙系统 吹上天了,余承东吹的牛再次成真!鸿蒙系统实现新功能,谷歌始料不及...

    提起"余承东"这个名字,熟悉华为的人都不会陌生,是他带领华为消费者业务部门将华为手机从一个无名之辈做到了全球第二.余承东当初在接手华为消费者业务后,立下了几个在当时看起来很疯狂的目 ...

  6. 「智子倒计时」成真?今年9月全面进入Wi-Fi 6时代

    行 业 要 闻 Industry   News ▲▲▲ 0 1 Win10今年最重磅更新!Win10 2004正式版 Win10 v2004正式版来了!今年首个Windows 10正式版更新于近日上架 ...

  7. 这些关于 2019 的预言里,你觉得哪几个会成真?

    硅谷Live / 实地探访 / 热点探秘 / 深度探讨 2019 年来啦!小探祝大家新年快乐! 站在岁末年初,总免不了总结过去.期盼未来.2018 年的科技圈起伏跌宕,那么 2019 年的科技圈又会是 ...

  8. 启用QNX系统,海尔智能冰箱或成业界“宝马”

    智能家电正处于迅猛发展的态势,国内眼下有非常多企业都在积极布局智能家电,当中又以海尔最为典型.作为家电领域的领头羊,海尔近年来在智能家电领域的动作不小.近期有消息透露.海尔也许会在IFA展会上宣布开发 ...

  9. 刚刚,霍金的一个预言成真了,这次吓坏不少人!

    1 刚刚去世的霍金,对于人工智能,曾有这样的预言: 如果有人设计计算机病毒,那么就有人设计不断自我完善.直到最终超越人类的人工智能,其结果将是一种新的生命形式. 你可能并不是一个讨厌蚂蚁的人,但也会无 ...

最新文章

  1. RotateAnimation详解
  2. android mvp简书,Android_MVP学习
  3. winform c#绑定combobox下拉框 年度代码。
  4. 非阻塞同步算法与CAS(Compare and Swap)无锁算法
  5. 【2018.4.14】模拟赛之二-ssl2392 蚂蚁【图论】
  6. [CTO札记]谁在使用SNS
  7. osg geometry清空vertex
  8. oracle生成助记符,如何在POA Network开发和部署智能合约
  9. 3 万字 51 张图教你 CPU、内存、操作系统硬核知识!
  10. [转载] Python数据分析与可视化学习笔记(一)数据分析与可视化概述
  11. docker在win7下的使用
  12. 计算机毕业设计springboot微信小程序购物商城源码
  13. R16之Access to Unlicensed Spectrum(3)
  14. 报名 | 张钹院士任首席顾问:首届“清华大学国强研究院杯”
  15. 用django实现一个资产管理的系统
  16. 什么是 IT 基础架构管理
  17. vant-ui area.js文件
  18. git push报错 emote: error: GH007
  19. SAP所有模块用户出口
  20. 【资讯】辉煌十载!BDTC 2017 中国大数据技术大会在京盛大召开

热门文章

  1. 什么是Select函数?
  2. 蓝桥杯真题:第几个幸运数字
  3. 一文读懂群延时(Group Delay):非常简单易懂
  4. html代码字号div style=,div字体大小设置 css设置div中字体大小尺寸样式
  5. PDF文档在线翻译的方法
  6. Access to the path '' is denied.解决方案
  7. 论文翻译——Artificial Intellligence:miracle or mirage?
  8. ipv4、ipv6格式校验代码
  9. 问卷:问卷星文本导出数据的多选题,排序题的处理拆分
  10. 大数据和云计算技术周报(第169期)