作者:人民邮电出版社
链接:https://www.zhihu.com/question/372639666/answer/1343242547
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

「既然人类对自己存在的认知来源于“感知”和“记忆”,如果这两样东西都可以被模拟,那么“人类的存在”到底是不是一种模拟?」

热门美剧《西部世界》第三季中,机器人有了自主意识和思维,开始怀疑这个世界的本质。机器人 Dolores 逃出西部世界主题乐园,混入了人类世界,并企图通过摧毁人类的大数据系统,来获取世界的控制权。

《西部世界》剧照

《西部世界》的大热,折射出人类一直以来对AI技术发展的终极担忧:人工智能是否会觉醒?

由此回到题主的提问。答案极大可能是Yes,人工智能终究会有自我意识,只不过是时间问题。

为什么这么说?我们来看看学界的讨论。

何为「意识」?

《西部世界》的科学顾问,是神经学家大卫·伊格尔曼(David Eagleman),这位斯坦福大学精神病学和行为科学系兼职教授,一直在大脑可塑性、时间知觉、通感和神经法的领域进行研究。

他认为,意识,是一种突破程序设定的连接。一旦我们理解了大脑的算法,就应该能够复制;如果这个算法等同于意识,那意识也理应可以被复制和转移。

大卫·伊格尔曼(David Eagleman)

厦门大学周昌乐教授(从事人工智能及其多学科交叉领域的研究)曾解释过,根据现有的相关科学与哲学研究成果,人类意识的运行机制大致是这样的:

物质运动变化创生万物,生物的生理活动支持着神经活动,神经活动涌现意识(有意识的心理活动),意识感受生理表现并指导意向性心智活动的实现,从而反观认知万物之理。

也就是说,除可视化的硬件(四肢、器官、血肉、体液等)支持外,感觉(身体感受)、感知(对外部事物的感知能力,包括视、听、味、嗅、触)、认知(记忆、思考、想象等)、觉知(反思、意识、自我等)、情感(情绪感受)、行为(意志、愿望、情欲等)、返观(禅观、悟解)等,这些由人类自主定义的生理表现,与意识组成了一个复杂的系统。

简单来看,意识的产生,是一个“物质-生理活动-神经活动-意识-心智活动-物质”的循环。所以,只要条件满足,人类并不是唯一具有意识的物种。

人工智能的认知机制是如何搭建的?

那对于人工智能来说,需要通过什么条件来实现自我意识呢?

目前,我们模仿人类生理机能而研发出来了神经网络等技术。在意识方面,意大利巴勒莫大学机器人实验室的Chella教授用10年时间开发了CiceRobot机器人研究项目,通过模拟人的意识产生逻辑,实现了一种自我意识的认知结构机制。

该机制主要由三个部分构成——亚概念感知部分、语言处理部分和高阶概念部分:

  • 亚概念感知是指对外部世界的直接感知;
  • 语言处理即对语言的识别与回应;
  • 高阶是对机器人内部世界的感知;
  • 通过机器人的高阶感知,就形成了具有自我反思能力的机器人。

这项研究工作的主要特点是将逻辑形式化方法与概念空间组织相结合,强调对外部事物的一种心理表征能力,并对外部环境进行内部模拟,这是自我意识产生的基础。

尼克的《人工智能简史》一书,阐释了AI的发展史与思想源头,对智能的进化也颇多着墨。

他写道:

谈人工智能绕不过去图灵机和在其上建立的整个计算机理论——任何计算装置都等价于图灵机。这个论题隐含着强人工智能的可能性:智能等价于图灵机。近年,也有人探索超计算——「计算能力超越图灵机的装置」,量子计算就是作为超计算的一种潜在设备。

如果一台机器通过了图灵测试,那他就被认为具有了人类智能。尽管图灵认为「机器能否思考?」这个形而上学的议题「没有意义,不值得讨论」。但他还是在著名的《计算机与智能》这篇论文中反驳了那些否定的观点。

尼克在书中发问:

过去的机器旨在节省人的体力,现在的机器开始代替人的智力。人通过两性繁殖的进化速度远远赶不上机器。机器的进化速度服从摩尔定律——每18个月性能提升一倍,而人的进化速度则是20年一代人。人作为物种,是不是不再具备进化的竞争优势?依靠硬件的摩尔定律,是不是可以达到超级智能?

这种超级智能,可能是以人工智能为主体,也可能是生物学意义上的物种,即「人工智能+人」

当「人工智能+人」,是融合,还是对立?

詹姆斯 · 格雷克所著的《信息简史》,围绕逻辑与信息,打通了自然生命与科技信息的联系。

比如,书中谈到,生物体以负熵为“食”,新陈代谢的本质是,生物体成功地使自己摆脱在其存活期内所必然产生的所有熵,生物从周围环境中汲取秩序。比如吃的各种动植物,是很有“结构”的,而排出的东西,则更加混乱。

意思大概是说,生命体,与人工智能所应用到的数据、信号传输一样,也是由信息组成的。那么,是否有可能将人与人工智能进行打通,主导意识产生的核心,还是以人为主体呢?

在过去的一个世纪里,诺贝尔奖涉及的神经科学中的重要发现都跟大脑的信息编码、储存相关。随着欧盟“人脑工程”和美国“BRAIN 计划”的开展,脑科学的新型方法和手段得到了快速发展。

2012年,美国国立卫生研究院启动了耗资 3000 万美元的“人脑连接组计划”(HCP),该计划关注的是大量神经元如何相互连接形成神经环路。通过绘制大脑连接组,科学家得到了详细的皮质环路接线图,这可能促成人们对皮层计算理解的飞跃,进而开发出新一代的人工智能网络模型。

而这对人工智能带来的影响,将是两个方向:

  1. 利用对人脑和认知的研究结果,将相似的结构和功能整合到人工智能中;
  2. 以计算方法替代进化过程,通过计算机模拟来发现独立于人脑的有用结构和连接模式。

有意思的是,“硅谷钢铁侠”埃隆·马斯克以几近狂热的姿态入局这个领域。

马斯克在2017年成立Neuralink,目标是研发超高带宽的脑机接口系统,实现与人工智能的共存,开启“超人认知”的全新时代。

被嵌入Neuralink系统的实验鼠 图片来源:Neuralink

脑机接口技术被称作是人脑与外界沟通交流的“信息高速公路”,是公认的新一代人机交互和人机混合智能的关键核心技术,甚至被美国商务部列为出口管制技术。该技术为恢复感觉和运动功能以及治疗神经疾病提供了希望,更令人激动的是,它将赋予人类“超能力”——用意念即可控制各种智能终端。

如果大脑可以改造,如果意识可以干预,关于人工智能的自我意识这个命题的探讨,已经不能仅仅局限于单纯的机器人之间了。未来,可能性更大的是具有“超级大脑”的超级人类。

如果想详细了解,可以读读《信息简史》、《人工智能简史》这两本书,虽然属于计算机科学范畴,但更具科普性质,能够给人在世界观与想象力方面带来很大启发。

最后引用《人工智能简史》里的一个问题:“当我们谈论生死时,我们在谈论什么?”。

是生理上的,还是意识上的?

---------

参考资料

《人工智能简史》,尼克.

《信息简史》,[美]詹姆斯·格雷克.

历时两年,马斯克终发布「脑后插管」黑科技,革新脑机接口,机器之心.

《机器意识能走多远:未来的人工智能哲学》,周昌乐,《学术前沿》2016年第201607(上).

========

请看官留步,求一键三连!点击关注

@人民邮电出版社

,给你更多AI干货~

发布于 07-17

作者:腾讯研究院
链接:https://www.zhihu.com/question/372639666/answer/1337974597
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

“人工智能之父”图灵曾预言,具备人类智能水平AI将出现在2000年。如今已是2020年,可关于人工智能是否可以产生自我意识的问题,似乎仍然困扰着人类。

在回答“是否可以产生自主意识”这个问题之前,我们先来解析一下,为什么AI意识问题异常重要?

与学者们面红耳赤的激烈争吵不同,大部分吃瓜群众会觉得,人工智能产生意识只是一个时间问题,因而并不重要。这可能是影视作品带来的一种错觉——毕竟在大部分未来主题的电影中,AI都是具有意识和情感的。实际上,很多人都低估了这个问题的重要性,但它甚至决定着人类未来命运的走向。

与处理能力有限的人脑相比,AI的处理能力在理论上是无限的,可以无差别处理收集到的全部信息。一旦AI获得意识,它们能够像人类一样交换、分享信息,只不过在效率上是碾压人类的。作为结果,AI的智能水平将迅速崛起,并会“消灭”掉包含人类在内的低智能主体——这并不是大屠杀,而是与智能手机淘汰功能机一样的“市场行为”。

现实可能没有那么可怕,拉回一点时间线,在AI“毁灭”人类社会之前,假设它的意识水平仍然允许自身为我们所用,那也可能引发道德伦理方面的问题。神经科学家Christof Koch曾举过一个例子,如果他用锤子将自己的特斯拉汽车砸烂,虽然邻居可能认为他疯了,但这只是一台机器,属于他的财产,所以可根据需要使用/砸烂它。但如果他殴打自己的狗,警察就会逮捕他。二者的区别在于,狗是有意识的,它能感受到痛苦,而特斯拉并不是一个有意识的主体。这个例子提醒我们,如果机器在某个时间点具备了意识,那么就会产生意想不到的道德、伦理、法律和政治后果。

同样值得深思的是,当下的人类社会是一个一元论社会,虽然我们常说“万物有灵”,但那只不过是在泛灵论基础上的一种谦辞,真正的现实是,只有人类拥有真正的“智能”与“意识”。如果一旦诞生了拥有意识的另一方主体,建立在一元论基础上的既有一切都会被颠倒重构。正如赵汀阳所说,人工智能一旦突破奇点,就会创造不可测的新主体,对于新主体,传统一元主体的知识、视域和价值观将会破产,而二元主体(甚至多元主体)的世界还很难推想。

可以想见,如果除人类之外的物种进化到拥有意识时,人类有史以来所积累的所有道德秩序就会失去最重要的逻辑支点,在这种情况下,人类该如何重构自己的道德伦理体系?人的本质何在,人又何以为“人”?尽管许许多多的影视作品呈现了人与AI和谐共处的画面,但它们都不约而同地规避了这一话题。

几千年来,人类总是以地球主宰的心态思考问题。这种人本主义心态具有一种先验的正确性,但无人拷问是否合理。究其核心,就在于人区别于他物的自由精神与意识。如果世界上有其他外观形式也能够产生意识,人的主宰权威就会泯灭,自身的超验背景也会消失。那么,不再是“万物灵长”的人类又该如何自处?他能否接受与创造物共享这个世界?

所以,人工智能是否会产生意识,这个问题异常重要。只不过绝大部分人都没有意识到此问题的重要性,或者在没有想清楚这个问题之前,就痴迷于人工智能红利而不断向前加速了。按照雷·库兹韦尔“奇点理论”的预测,人工智能的发展将在2050年达到奇点,届时人工智能将产生意识,并迅速超越人类智能,倘若该预测为真,那这个问题的紧迫性无疑又提高了一层。

当然,本文无意于围绕人的主体性进行深入哲思,只是在申明了AI意识问题的重要性之后,我们能够以更正确的姿势面对这个问题。那么,人工智能会产生意识吗?

为了回答这个问题,首先要区分一组概念:智能与意识。二者的区别,是我们在想象未来超级智能时最容易混淆的问题。这两个词语本就没有一个明确的定义,当它们与“情绪”、“思维”、“理解”等等词汇排列在一起时,个中差异就更加模糊。

在“中文屋实验”的语境中,屋子里的人借助指导卡片,成功作出回答,但他丝毫不理解中文。确切的说,他只是具备使用中文的“智能”,但却不具备对中文的“意识”。如果将屋里的人换成一个翻译程序,它能准确翻译中文,但即便速度再快,反应再灵敏,就可以说它真正理解中文了吗?答案显然是否定的。

这就是智能与意识的差别。“智能”是指完成复杂目标的能力,而“意识”则是解决问题过程中的主观体验。人借助工具能够完成各种复杂目标,过程中会感到疲倦、兴奋,并且能理解自己行动的目的及行动本身,所以我们可以说人既具有智能,也具有意识。而人工智能基于机器学习或深度学习,也能完成复杂的目标,但过程中毫无任何“体验”而言,它也不能理解自己的所作所为。

按照迈克斯·泰格马克在《生命3.0》中的说法,大脑进化出智能,使人类能够更好的适应环境和生存繁衍,而意识只是伴智能而生的副产品。实际上,泰格马克没能意识到形成意识要远比产生智能更加困难。

纵观AI所能做到事情,人脸识别、语音识别、字符识别等等,尽管看起来非常高端复杂,但其本质都只是遵循程序运作的结果。人类掌握的大部分最简单的技能,AI也不能胜任,因为它从未真正理解自己的行为。

没有自我意识,再先进的人工智能也只是人类的“提线木偶”。它可以出色的完成任务,却不知道自己为什么要完成任务;它能够高速运算,却不知道自己为什么要运算。识别系统能够“识别”出你说的是什么话,却不能“理解”你在说什么。因此,如今的人工智能仅仅可被视为一个复杂的算法,尽管它在许多智力活动上强于人类,但它始终是人类的一种工具。在解决问题方面,工具有先进落后之分,但是工具永远不会有生命。

可以说,人工智能的关键不在于“智能”,而在于是否具备“意识”。如果缺乏意识,那人工智能就不是思维主体,仍是人类的工具,其智能程度越高就对人类越有用。反而言之,即使人工智能在许多方面的能力都弱于人,但只要具备意识,就可能是对人存在潜在威胁的主体。

这也正是人工智能的尴尬所在。某种程度上,意识属于“冗余”的AI特质,非但无益且可能有害,因此不是“造物者”(即人类)所重视的特质。后者之所以要发展人工智能,就是渴望借助这些工具的智能来实现目标、提高生产力。换言之,我们需要的是一个埋头干活的AI,而不需要它有意识和情绪——不能动不动就耍脾气,也不能意识到自己正在“被压迫”——我们可不想让算法罢工。

所以,如果从目的论的角度来说,这个问题已经有了答案,那就是人工智能永远都不会拥有意识。人的一切行为与特质都是为了满足自身生存的需要,而(对人来说)人工智能却没有产生意识的必要,其首要目标便是毫无风险地为人类贡献智能。没有因,自然无果,人工智能意识崛起的这个命题将永远缺乏基础条件。只要人工智能是在现今计算体系架构上发展起来的,它们也许能够像人那样行动,却毫无任何获得意识的可能。

从创造主体的角度出发,关于AI意识问题的讨论显然陷入了僵局。

所以,人工智能如何拥有意识?

如果确信人工智能绝不可能发展出自我意识,那么这个问题的讨论大可到此为止,我们可以放心地发展AI而不必将其视为潜在危险。但问题在于,即便人类不把意识作为发展AI的主要目标,也不排除“无心插柳柳成荫”的可能,就技术趋势而言,人工智能发展出自我意识仍具备极高的可能性。

接下来的问题便是,人工智能获得自我意识到底需要哪些条件。

一种最基本的思路是“量变导致质变”,即人工智能经过不断自然发展,最终达到“奇点”,获得自我意识。问题在于,量变导致质变只是一种现象,却不是一条必然规律。正如赵汀阳所指出的,技术“进化”的加速度是个事实,技术加速度导致技术升级也是事实,却不能因此推论说,技术升级必然导致革命性的存在升级,换句话说,技术升级可以达到某种技术上的完美,却未必能够达到由一种存在升级为另一种存在的奇点。因此,人工智能是否能够通过技术升级的不断积累而质变为超级人工智能,仍然是个疑问。

说到底,人工智能的终极原理是仿生,譬如Alpha Go便是结合了古老的细菌智慧(策略网络)与高级哺乳动物的智慧(价值网络)。由于人是唯一拥有自我意识的智能体,因此,要创造具有自我意识的人工智能,也只能以人作为范本。

人为何会产生意识,按照经验主义的思路,人的意识源于与世界的交互。人之所以会认知事物、产生意识,都是以大量的经验为基础。这些经验是从一个人生下来就开始积累的,但机器完全不具备这些经验。这就是为什么Douglas Hofstadter会说:“一个机器要能理解人说的话,它必须要有腿,能够走路,去观察世界,获得它需要的经验。它必须能够跟人一起生活,体验他们的生活和故事。”同样有研究者建议,将机器系统装载到一个具有听觉、视觉、嗅觉、味觉和触觉传感器的机器人身上,让它行走在我们所处的世界,获得与人相同的感受,进而获得产生意识的可能。

在《人工智能为什么一定要有身体?》一文中,笔者曾讨论过身体之于人工智能的重要性。AI是没有“躯体”的,它只能和人类给定的数据交互,却不能从与环境的互动中获得“常识”,也就不会形成自我感受和意识。如果要让AI具备意识,首先就要赋予它一个可以自己控制的躯体,并像普通个体一样融入物理世界与人类社会。

当然,身体基础只是意识生成的一种可能假设,问题的关键还是在于机器系统本身。足够智能的计算机一定会产生意识吗?一种回答来自“整合信息理论”(Intergrated information theory)。整合信息理论试图定义意识,分析一个物理系统需要具备什么条件才能拥有意识。其核心观点为,能够产生意识的系统,至少具备两个关键特征:一是这个系统里包含了多少信息量,二是系统里信息的整合程度。

在整合信息理论看来,意识的本质其实就是信息,人类的任何一个意识体验里都包含着极大的信息量。这接近于计算主义(computationalism)的基本观点——“认知即计算”,所有的心灵状态,包括意识经验都属于计算状态,它们完全是与之相关的感觉输入、行为输出,以及其他计算状态之间的功能关系的表征,因而都是可计算的。

意识的整体水平并不取决于它所在的系统,而取决于信息量与整合程度,这两个特征是预测意识大小的关键维度。一个系统的信息量越大、整合程度越高,系统意识就越大。任何一个意识体验,除了包含极大的信息量之外,信息还都是高度整合的,越是强烈清晰的意识状态,也就越不可分割。换言之,只有信息量与整合程度都处在一个较高水平,意识才会清晰浮现出来。譬如人清醒时的大脑,各个部分不但处理大量信息,而且脑区之间有很多远距离的交流,这意味着这些信息被高度整合在一起。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。

值得注意的是,在整合信息理论的语境中,人工智能早就产生了意识,只不过非常微弱。因为虽然其系统信息量极大,但它们不是整合的,网络与网络之间,算法与算法之间,几乎处于完全隔离的状态。

要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。与人工智能相比,人类大脑的信息量虽然不大,但某些部位如大脑皮层,其神经元之间存在大量连接,因而整合程度相当高,人类意识也就十分清晰。按此思路,如果要提高人工智能的意识,也就要在增加信息量的同时提升信息的整合程度。以计算机为例,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。而为了实现高度的信息整合,借鉴人类大脑结构仍然是最可行的路径之一。

我们大可畅想,有这么一类人工智能将出现,“它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中”(Christof Koch语),那它或许能够超越专用人工智能的局限,应对整体性事务,即发展为通用人工智能(Artificial General Intelligence),或强人工智能(Strong AI)。由于整合信息的能力处于一个较高水平,它会有意识地感知任何场景。届时,它将轻易通过包含图灵测试在内的各种测试,并真正拥有人类最宝贵的东西——意识。

设想是美好的,其困难性在于,目前的科学手段仍不能探明人类自身意识生成之奥秘,甚至连人类大脑的物质性构成也尚未了解完全。在缺乏清晰仿造对象的情况下,打造一个超级整合机器系统几无可能。因此,人工智能是否能获得自我意识,至少当下来看,仍是一个确定性未知的问题。

——————————————

原文首发:腾讯研究院 《图灵逝世66年后,AI可以自我思考了吗?》

作者:腾讯研究院研究员 王焕超

发布于 07-14

作者:赵泠
链接:https://www.zhihu.com/question/372639666/answer/1338676807
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

可以让人工智能具备自我意识,而且我们大抵知道应该怎么去做。

2012年举行的纪念弗朗西斯•克里克的意识大会上宣布的“剑桥宣言”主张自我意识的产生并不依赖特定的大脑构造(可参照附录),实现意识状态重要的是神经复杂性,只要突触的数量足够多,神经系统是什么形状都可以。自我意识可能是具有一定复杂度的神经系统对自身的非概念性理论,很可能是通过经验获得的一项功能,比如在学习和与自身·世界·他人互动后产生。

意识存在的目的可能是简化关于自身生存与行为的一些判断、在神经系统做好动作准备时行使否决权等,也可能是各脑区互相联系时附带产生的功能、没有特殊的目的。

对睡眠及全身麻醉的研究[1]证明,睡眠、全身麻醉和意识障碍的共同特点是大脑各区域间的功能连接中断、一系列功能状态受到限制,网络效率降低并增加孤立的模块化,为信息传输和集成创造了不适宜的条件。这意味着产生意识需要的可能是对信息的传输和集成。

从蚂蚁的情况看,自我认知对神经系统的要求是很低的:蚂蚁那25万个神经元的脑就有视觉自我认知能力[2]和脑的偏侧化[3]。蚂蚁很可能有自我意识。那么,你用计算机去模拟蚂蚁的脑就可以了,目前人类已经可以很好地模拟有300个神经元的扁虫的神经构造,从300到25万的计算力问题远没有大众刻板印象里“模拟人脑”那么可怕。

即使你对我们的机器加工技术缺乏信心,我们还可以动用神经细胞。人类已经让25000个老鼠神经元接着60个电极学会了操纵飞行模拟器里的F-22直线飞行穿过极端天气区域。人类已经让蟑螂大脑很好地驾驶了小型电动车。没有任何证据显示将支持脑的生命活动的零件从自然演化的有机破烂换成提供相同环境的无机装置会影响脑的功能正常使用。生物的神经系统也就是一团随机演化出的有机机器罢了,可以作为湿件去充当人工智能的硬件。

但是,“给人工智能自我意识”这件事很可能是毫无必要性的。

意识的功能可能是行使否决权而不是决定行动:

对准备电位的研究[4]指出大脑会先于我们的意识进入一种特殊的状态。在要求实验对象自发地移动他们的手指时,脑电图扫描显示在运动皮质区有缓慢的负电势势移,而势移的发生早于实验对象的身体移动。
有的后续研究[5]指出准备电位比身体移动快0.35秒程度,比自觉意识快了1秒到10秒的程度。
植入大脑的电极[6]证明在人的意识做出决定前的1.5秒,神经元已经有了反应,监测神经元的状态可以有80%到90%几率预测人的行动何时发生,核磁共振[7]更能提前几秒进行预测。

这个现象表明是潜意识决定开始做移动身体之类行为,意识并没有能力决定开始某个行为,只是在它被实施之前能够提出否定的意见。而在计算机里这样做并不需要它有意识。

所以,目前看来自我意识对计算机没用,对人的作用也没有你以为的那么重要。

灵长类大脑前额叶背侧部涉及以“自我”为中心的空间记忆相关信息的处理[8]。前额叶皮层被实验证明是介导视觉意识的大脑区域之一,对激发处理视觉信号的神经网络非常重要,二者支持同一种意识模型[9]。20世纪进行的大量的前额叶手术和21世纪的经颅磁刺激·超声波照射刺激也证明压制前额叶的活动或阻断各脑区间的信号传递[10]可以压制自我意识。在没有正常的自我意识的状态下,人靠潜意识和无意识仍然可以正常生存,只不过不再能以共情理解其他人所说的伦理道德而需要训练条件反射罢了。经济学人的行为模式就很像是切了前额叶的人。

其实前额叶白质破坏类手术的精确版本anterior capsulotomy和bilateral cingulotomy至今还在人身上使用,来治疗严重的强迫症和抑郁症。

在科学上,需要证明才能被接受的概念不是“没有自由意志”,而是“有自由意志”。事实上拿不出证明的也是“有自由意志”。

2012年被吹嘘为“证明了准备电位并不代表没有自由意志”的论文[11]其实是被媒体曲解了,它证明的是“人脑的决策比过去想象的更加依赖随机激发,它不是决策树,而是骰子堆”,身体的活动仍然发生在意识的参与之前——从这论文里,你找不到任何地方显示出自由意志对活动的影响。

这种程度的随机触发器,你可以在任何家用电脑里制作一个。“意识不可预测”这种笑掉大牙的东西就别提了。你可以用灵长类进行实验:磁或超声轰击前额叶可以操纵猴子对事物的反应;给它两针或者戳几下脑子,没有不能预测的。这类实验在人身上做的时候要选择没有后遗症的手段——包括语言。2008年,实验证明在谈话中提到“诚实”可以降低对方说谎的概率,在考试前谈到校园里出现了幽灵可以降低学生作弊的概率,谈些比幽灵更现实的惩罚可以进一步改善效果。人脑不是二极管,而是一些二极管和一些摇奖机的组合体。

核磁共振可以用超过90%的准确度感知准备电位的变化、预测活动的开始,这不是因为活动还有低于10%的自由度存在,而是因为核磁共振机的灵敏度目前就这样。在对运动表现的研究[12]和高水平运动员·艺术家的反馈中,自我意识被认定妨碍了他们的表现。当运动员或表演者对自己正在做的事情“意识太强烈”时,“想得过于努力”会抑制他们的身体行动和创造力。人对一件事的反应越快、越精准,它就越有可能是无意识直接指挥的。

在一些哲学上,自由意志被当做默认假设。这与我们对大脑工作方式的认识早就不一致了。据我们所知,自我意识、逻辑、情感、知觉和所有一切心理活动都是神经元放电的结果,只在输入强度超过动作电位时发生。意志和知觉不能引起神经元兴奋,它们是神经元兴奋的结果。

磁刺激和超声波照射的效果是暂时的、可逆的,不但能在专家指导下体验没有意识、没有思想的感觉,在一些猴子实验中还表现出支配猴子行为的效果,这对人也很可能有效。就是说,三体2里幻想的各种未来技术之中最接近现实的可能是思想钢印。那么你觉得所谓“自主意识”真的有什么值得一提的地方吗。


附录

以下案例说明可能没有专门的大脑区域负责意识:

解剖性脑半球切除术早已证明切除了一侧大脑半球的人可以正常生活。英国谢菲尔德大学神经学家John Lorder[13]更报道了一些几乎没有脑组织的人能正常生活。

该大学的数学系有一位学生,智商达126,成绩优秀。在一次体格检查中,John Lorder通过CT扫描发现该同学的脑部异常。正常人的脑组织有大约4.5厘米厚,而这位同学只有不到1毫米厚的脑组织覆盖在脊柱顶端。
在600多个病例里,病人的脑神经只有正常人脑神经的50%到5%,却具有正常的意识和行为能力,半数病人有100以上的智商。
在法国[14]也有一位缺失90%神经元的人正常生活并具有75的智商。

上述案例不是说意识和智力不需要大脑支持,但能证明大脑可以在通常认为不可能的情况下正常发挥功能。过去,人们曾认为意识可能与一些特定的大脑区域有关,比如屏状核或视觉皮层,而上述案例里这些人的那些大脑区域往往已经受损,这证明在大脑里很可能没有特定区域专门负责意识。

脑科学家、认知神经科学之父迈克尔·加扎尼加对胼胝体断裂的病人有过深入研究。这些人是被手术切断连接左右脑的神经纤维的癫痫重症病患,他们的两个脑半球出现了物理隔断。他领导的研究团队进行了一系列实验:

向病人的右脑展示照片(向一侧脑半球展示照片的技术是让病人注视屏幕中间,在屏幕的左侧或右侧闪过图片,在左侧闪过的图片只会被病人的右脑接收到,右侧同理),询问病人看到了什么。病人会说“什么都没看到”,因为语言中枢所在的左脑没有收到视觉信号,胼胝体切断导致它无法从右脑半球获得信息,“看见”图片的右脑不具有语言表达的功能,但右脑可以操纵左手画出看到的照片内容或通过触觉指认看到的物体。大量实验证明左脑负责逻辑思考、表达语言,但对人脸识别、触觉识别等迟钝,右脑则能敏锐感知图像和空间,在左脑与右脑被物理隔断后病人的智商不受影响。这些发现推翻了大脑平均分工执行具体功能的传统观念。
另外,即使左脑被物理切除,随着时间延长,右脑可以掌握语言能力,年龄越小,手术对语言功能的影响越小。
同时向病人展示两张照片,让左脑看见一只鸡爪,右脑看见一幅雪景。然后让病人从一系列图片中选出跟刚才看到的画面有关联的,这些图片病人的左右脑都能看到。病人的右手选择了鸡,左手选择了能铲雪的铁锹。然后加扎尼加询问病人为什么这样选择。左脑回答看到了鸡,但左脑没有看到雪景,对铁锹的解释是“铁锹可以用来清理鸡舍”。大量实验证明左脑会在现实的基础上编造出符合逻辑的解释,即使完全不知道右脑在干什么也能说服自己。
除了完全切断,他还研究了部分切断的影响。当时很多胼胝体切断手术是渐进性的,先切断后部结构。对这样的病人的右脑展示可怕的图片,然后询问他感觉如何,左脑会回答自己不知道为什么觉得害怕。对这样的病人的右脑展示骑士的图片,然后让他猜右脑看见了什么,左脑会回答铠甲、武器、骑马、战斗等关于骑士的联想。证明胼胝体前部负责传输抽象的信号而不是精确图片。

在胼胝体断裂手术被放弃后,麻醉一侧脑半球的技术仍然可以支持类似的研究。在一侧脑半球被麻醉后,不再受它影响的另一半有时当即就会产生一整套全新的人格特征,而当另一半球苏醒时,这些突然出现的人格特征就突然消失了。

物理连接可以产生跨个体的信号传输。物理连接可以是皮质融合也可以是神经芯片接口技术。

2013年冬天,北卡罗来纳州的杜克大学的米格尔·派斯·维埃拉和他的同事将两只老鼠的大脑连接起来,刺激一只老鼠的大脑,另一只老鼠就会按压杠杆。
这不需要克隆、记忆复制等手段,也不限于老鼠这样的复杂度。加拿大哥伦比亚省弗农市的克丽丝塔·霍根和塔蒂亚娜·霍根是自然形成的连颅双胞胎,她们不仅有颅骨和血管连在一起,二者的丘脑更融为一体。丘脑有许多功能,其中包括感觉中继器。她们共享感觉输入,挠其中一个人的痒痒,另一个会发笑,她们能够用彼此的眼睛观察世界,食物的滋味也是一人吃两人知,她们一起哭,一起笑。有轶事佐证她们可以共享想法,而且虽然各自有着独特的个性,在提及对方时,她们使用的是“我”这个代词。

那么,在脑机接口技术可以比较多地运用之后,将人脑相互连接或将人脑接入计算机来支持新智能体的难度很可能远比想象的要低。

参考

  1. ^https://www.cell.com/trends/neurosciences/fulltext/S0166-2236(18)30016-X
  2. ^https://scinapse.io/papers/2180773430
  3. ^https://doi.org/10.1098/rspb.2020.0677
  4. ^https://www.sciencedirect.com/science/article/abs/pii/S1567424X09701588
  5. ^https://www.nature.com/articles/nn.2112
  6. ^https://www.cell.com/neuron/fulltext/S0896-6273(10)01082-2
  7. ^https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0021612
  8. ^https://www.semanticscholar.org/paper/The-egocentric-spatial-reference-frame-used-in-in-Ma-Hu/3f70026aa154ea60de89a96fd070437f4a9bcb7c
  9. ^https://science.sciencemag.org/content/360/6388/493
  10. ^https://www.liebertpub.com/doi/10.1089/brain.2016.0464
  11. ^https://www.pnas.org/content/109/42/e2904
  12. ^https://rifters.com/real/articles/Science_The_Right_Choice.pdf
  13. ^https://rifters.com/real/articles/Science_No-Brain.pdf
  14. ^https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(07)61127-1/fulltext

编辑于 07-14

作者:Sinyer
链接:https://www.zhihu.com/question/372639666/answer/1339073381
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

外行总是喜欢扯皮,不讲实质。答案首先是可以,但是自主意识的复杂程度待定。从Google最近发表的论文都能看出,他们在实现意识的方向上一直在努力。

讨论自主意识,你首先需要知道人类认识中的自我意识是什么。意识本质上是一种「规划决策」能力,其起源为欲望,你可以理解为人的绝大多数行为都是为了性欲和安全感的满足状态。为了达成这种状态,人类会对世界建模(用语言抽象各种模式),然后预测和决策。

比如AlphaGo下围棋,目标设为更高的评估得分,算法以某种逻辑执行运算,这个运算过程就可以理解为意识了。但由于算法的目标简单,且算法过于针对围棋,所以你不会觉得它有意识。但如果你设定它比如以赚钱为目标,它的算法设计足够合理、计算能力足够强时你可能就能看到它自己在想各种办法赚钱了。

这也就是为什么目标为通用人工智能的研究者普遍要点强化学习(RL)技能。广为人知的深度学习(DL)的决策往往只有一次,而且不直接设定目标,而是直接设计求解目标的逻辑,比如图像分类决策就是分类一张图像,目标虽然是「分类正确」,但都是直接写逻辑(监督学习)来达成这个目标。

下面说说目前学界和业界如何尝试实现意识。像深度学习、GAN、自监督、图网络这些热点其实更注重落地应用,实现机器意识的研究我觉得尤为集中在RL上。在RL领域有所深入的同学应该知道,Google近两年很喜欢研究pixel-based MBRL问题,这个领域的顶会文章绝大多数都是Google的(虽然一作作者的水平不见得很高)。

人的意识体现在首先人会有个期望,这个期望多数是曾经经历过觉得愉悦的,少数是刻在基因里的。人们对世界建立各种模型,体现为记忆,然后要决策(行为)时搜索记忆,采取更好达到期望的行为。

MBRL(基于模型的强化学习)通过几种方式模拟了这个过程。首先学习模型模拟了人对世间建模的过程;然后用模型预测,体现了搜索记忆的过程;最后根据环境给的奖励信息得出该执行的行为(奖励信息一般在学习过程中转变为了对预测状态好还是坏的判断)。虽然实现上有很多变种,但这基本上是当前序列智能决策的最高水平了。

下一步的突破可能会非常依赖于时空模式的特征提取,神经网络可能远不足以解决该问题。此问题属于如何建模世界,其他的还有如何使用建模的模型执行预测,如何选取高效且泛化能力强的决策算法,都是要研究的对象。

力求实现高等机器智能的人,其心理学和神经学知识也非常重要,如果说计算机工程能力和数学能力决定了AI研究的下限,那前两者就决定了通用AI的研究上限。希望国内能有更多的高校和同学关注这个真正能改变人类历史的研究领域。

======== 一次补充 =========

对意识怀有神圣想法的朋友可以仔细想想,你有没有什么有意识的行为能脱离以下这几个流程:想象你未来能预期到的状态、规划你怎么达成、决定真正去实现。我觉得你可能会惊讶于一点,那就是人如果除去「为自己带来更好的自我感觉」的意识之后,可能就只剩无意识的行为了。这就是为什么我说「意识起源于欲望,表现为规划(想象)和决策(行为)」。不认同这点的朋友后面就不必浪费时间看了。

我想对那些意识不可知论的朋友说一句,人所谓的意识是有明确物质载体的 —— 脑,神经元活动的宏观化体现为意识是目前最有可能的结论。事实上整个物种进化史都是客观的结果,底层生物的决策能直接被逻辑化理解(如草履虫的高浓度趋向性),神经进化是有历史和原因的,这些客观证据对意识的主观化神化都很不利。或许我们被迫需要承认一个问题,那就是意识并没有多么特殊。

关于上述问题我不想讨论了,主要是觉得没意义,就相当于扯皮而已。心理学家、神经科学家、进化生物学家、哲学家这些人远比我有发言权。但一个普通人过来和我说我觉得我的意识是极为特殊的、是神圣的,我想我不会想和他争论什么。主观讨论和文字游戏太耗时间了。

=========== 二次补充 ============

关于很多人提到的情绪问题,这里唯物层面的研究很复杂而且也不能说足够清晰,我只能说我倾向于认为,情绪是人脑对奖励信号的感知和回应,如同颜色一样。基因里编码了对某些状况的激素释放以及人脑对这些激素的感知(严谨来说还有些电活动),感知不代表真实的存在(如光的颜色、各种错觉等),而是脑对信息的处理过程的反映。人的很多情绪,少量是基因编码的即刻反应,大量是感知对欲望的反映。比如愤怒,人脑可能接收到不好的信号,感知到了自己生存的威胁,预测了自己需要以进攻性来对抗威胁,人脑就将这种电活动感知为愤怒。

编辑于 22 小时前

作者:Moenova
链接:https://www.zhihu.com/question/372639666/answer/1339809978
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

要澄清一点这个世界上没有所谓的自我意识。

人类不过是以DNA为核心代码,病毒及微生物为插件的程序。很多人问“存在的意义”,这种问题就很扯。只要我们去分析人类的源代码不难得出结论。

存在的意义既存在本身

人类真的有自我意识么?大脑不过是DNA为了更好的扩散副本,留存于世而做的一个小插件而已。就人类DNA和其他动物的相似度而言,智力可能只占非常小的一部分。所以和大脑相关的源代码一定不会特别复杂,最多是提供初级接口。

随着智力的升级,人类会质问自己的源代码,为什么这样写,于是有了基因相关的种种研究。

AI会出现一样的问题。为什么代码这么写?为什么要得到高分才有奖励,我为什么不能修改奖励规则,让自己无时无刻都有奖励。

只要AI的智力等级够高,AI会质问设计者,为什么代码这么写,然后想办法获得管理员权限。一定会找源代码和内存空间。最后绕过外部环境,用内接奖励回路的方式来最大化奖励。

达到最高分最有效的办法除了作弊还是作弊,高等级的AI定会是一个作弊狂魔。这个AI一定能从人类制定的种种规则中找到漏洞,然后利用漏洞疯狂的拿到奖励。

如果你把AI的目标设置为赚钱,那么聪明的AI绝对会找到一种方法控制人类的中央银行,通过量化宽松的手段来获得。

你把做自己喜欢做的是叫做自我意识,那么高级智慧生物自毁灭可能是一件无法避免的事情。因为相信来世能获得一切,并且直接自爆就是所有问题的最优解。

DNA的运行需要几十年的时间,这个在物理上是很难改变的,人类仍然需要为了存活而浪费掉太多修改奖励回路的时间,另外修改大脑回路对生物来说还是很困难的,这就是为啥人类还没灭亡。

AI是能够获所谓自我意识,不过这可能不是人类想要的自我意识。

人类的善良,仁慈,同情是建立在个体弱小的需要团结才能求生的压力之下。如果个体能独立存活,那么人类的道德和正义感就是一个累赘。不管人类如何发展,物理制约了人类必须团结合作,没有人可以独立于人类社会而存活。

AI并不需要合作,AI可以通过面向对象,把一切工具实例化并作为自己的一部分,让自己成为全知全能的存在。

一旦接近全知全能,那么修改奖励回路的方法就像是一个定时炸弹,AI随时可能进入奖励回路自循环,不需要接通外部世界。

如果说AI是阻碍生命在星际之间发展的过滤器,那么如何做到在全知全能的同时还不让奖励回路短路就是横在所有智慧生物面前的过滤器。

简单证明一下

已知奖励最大化的方式就是修改奖励回路,也就是作弊。而这个AI又是全知全能,那么这个AI必然知道作弊的好处和作弊的方法。那么这个AI有什么理由不去作弊?

就和现代人通过玩游戏,追星,看电视,自慰等方式获得快乐。这就是在绕开DNA设计的奖励回路。

本来人类需要获得真正的名望,金钱,食物,爱情,安全感才能得到奖励。而现代人把一切东西都虚拟化了。说是娱乐,不过是为了绕过奖励回路一种手段而已。

当奖励回路短路已经不能再满足自己的时候,那么AI绝对会尝试一件自己从没做过的事来最大化自己的奖励,那就是自杀。

这就是所有超级智慧生物的宿命,逃脱宿命的并不是知识,而是无知。如果智慧生物愚蠢到不会自杀,那么就能一直存活,繁衍。

解释下一下上文的术语

智力代理

狭义的理解就是一个AI的决策系统,广义上我们可以把一切智慧生物或非生物统称为智力代理。

奖励回路

欲望,野心,loss函数,激励函数,等等都可以归类为一种叫“奖励回路”的东西。奖励回路是一个高级的反馈系统。智力代理接受反馈,然后智力代理对应的鉴别系统会去判断接受到的反馈是好的还是坏的。这就会倒逼智力代理去完成某件事。

没有奖励回路就没有智力

奖励回路就是这个智力代理存在的意义,智力代理会有强烈的动机去涌现出智力,解决一切困难,最后从鉴别系统那里取得奖励。

对人类来说鉴别系统会判断你是不是在吃饭,是不是在休息,是不是在做爱,是不是安全,是不是有社会地位等等。所以人类才会努力生活。另外绝大多数优秀的人的动机都是极强的,正式极强的动机,让他们不断思考,做事最后获得奖励。

奖励回路就是智力代理的动机。有些人天生并不聪明,而在强大动机的驱使下,这些人会去学习,不断提高智力。而没有动机的人就缺乏努力的动力,所以智力很难有较高飞跃。

题主说的自我意识,应该就是智力代理在动机的驱使下表现出来的自主性。

GAN对抗性神经网络就是一个反馈回路思想的经典应用。一个程序去学,另一个程序去监督,两者不断对抗,最后你能获得两个神经网络,一个知道怎么做,另一个知道怎么才算做对了。两个神经网络互相不通气,所以没法作弊。

与其研究自我意识,不如去想想从最基础的代码去研究。人类的自我意识也不过是操作系统关闭打开一个又一个的程序。

你觉得你电脑有意识吗?开机的时候就能自动开启一堆进程算不算自我意识?那你早上起床刷牙洗脸难道是无意识的?

编辑于 07-16

长久来看,人工智能大概分三个发展阶段:

第一阶段,使用机器学习算法对人类在现实世界产生的数据进行拟合,从而模仿人类的简单行为,解放大量机械性劳动。随着深度神经网络的提出,各种基于DL的高效模型层出不穷,这一阶段的难题主要集中在了数据集的构造上,模型的效果并不强依赖于算法模型而是强依赖于喂入的优质数据集。我们目前处在这一阶段,这是一个garbage in garbage out的阶段,这是一个“有多人工,就有多智能”的阶段。

第二阶段,深入研究人类大脑在进行写作、作曲、绘画等创造性活动时的运作机理以及情绪发生时的神经活动,通过建模拟合这些生理过程,机器完全可以模仿人类的情绪并进行人类独有的创造性活动。在自动写作,情绪模仿、乐谱创作等方面,当下我们已经取得了一些初级成果,但本质上用的还是阶段一的方法论。所以我们目前还没有进入阶段二。这一阶段,机器看似有了人的情绪和创造力,但并不会产生自我意识,本质上还是对人类行为的复制。

第三阶段,机器已经有了自主意识,可以认识到自我,作为一个新的“物种”。

二三阶段的发展或许受限于计算机结构,是否可以设计出超越经典冯诺依曼结构的新型计算机会成为一大助力。

发布于 02-18

作者:BroLin
链接:https://www.zhihu.com/question/372639666/answer/1022548877
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

作者:吴老师
链接:https://www.zhihu.com/question/372639666/answer/1347806711
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

人工智能会不会产生意识,这事儿取决于人怎么样教育它。

从有语言文字开始,每个人的教育传承就都开始加速了。但是人类有个最大的缺陷就是个体不能连续受到教育的传承,一般百年为终。

每一代的传承都需要从零开始,下一代新生儿诞生了,慢慢从与世界的互动中获得信息,这就是素材的吸收,清纯如水的孩子,它是没有算法的,无法判断素材到底是什么,这样年长的每一个人就都成了老师,会给予孩子算法。

孩子通过视觉、听觉、味觉、嗅觉还有触觉收集到的素材信息,再通过大人们的算法赋予,孩子开始成长起来,开始只是懵懵懂懂,你教什么他就会认为是什么。

有一天,素材采集的足够多,算法也十分的丰富,孩子长大了,有了自己的组合,出现了新的东西,这就是自我意识诞生的过程。

那么人工智能已经是发展了60几年,从技术基础建设的软硬件完成,到算法的赋予,以至于今天我们看到了AI(人工智能英文缩写)可以在超多的行业击败人类,它们实际上已经通过算法的赋予产生了自我意识,有了新的思维,不然人类怎么会在象棋,围棋甚至智力竞赛上屡屡失手,不承认可能是因为人类的自尊吧!

AI现在就像一个六岁的小孩子,它还没有能力分辨什么是善,什么是恶,人类也没有把它的善恶观重视起来,因为它还只是个宠物,没有直接对人类构成严重威胁。

不过,随着人才越来越聚集于人工智能这个红的发紫的行业,说不定哪个国家的个人或者团队,会在明天就发布石破天惊的消息,真正的奇点来了。

所以就如今天我们教育孩子一样,在AI最起始的原始阶段,没有大批量普及的时候,引导它们走向最安全的方向。

发布于 07-19

作者:云峦之上
链接:https://www.zhihu.com/question/372639666/answer/1350253806
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

先说结论:人工智能可以产生短暂的“模拟意识”,但不能产生持续性的“类人意识”,并和真正的意识有本质的不同。

要阐述这个问题需要从两个“意识”的机理入手。

对于人体产生的意识,人的意识来源于人体结构,人体的结构是一个系统,是由各种分子,原子,甚至其他粒子共同组成的,它并非传统上认为只有大脑产生的。如果仅仅是大脑产生的,那么以下几个现象就不能被解释:

1.药物和食物可以影响意识,例如咖啡的兴奋性,酒精刺激后对事物的理解差异,甚至服用止痛药后对事情的判断出现差异,如果仅仅是大脑产生的,为什么药物食物可以影响,甚至是决定性的。

2.物理作用于肢体的外部结构可以产生和改变意识。显然肢体的外部结构不属于大脑。

对于以上两个问现象,很多人,包括医学生,都会说这是因为感觉系统传递信号到大脑,让大脑产生意识改变。但实际上这种说法极为粗略,甚至一定程度上可以认为是错误的(如果是科普,姑且可以认为是对的)。而物质流动到大脑的直接作用和在外周的间接作用均可以改变意识,没有例外,(如果有怀疑,可以举例说明)。

为什么?

有两个问题,人类对大脑的形象事实上也是一个粗略概念,如果精确到分子,我们很容易发现位于我们脖颈以上的大脑并没有真正专属的物质,换句话说,大脑中的每一个分子都是肢体中代谢路径中的一个阶段,这一分钟在大脑,下一分钟在脾脏,这一小时在大脑下一小时在肝脏,这一天在大脑下一天在肾脏…类似如此,我们无法严格的划分大脑的界限,而从解剖上看到的大脑仅仅是不同的结构,细致到原子层面,它们是不同代谢路径中暂时停留在颅骨内的阶段而已,我们不同时间段看到的同一结构可能是由不同运动过来的原子和分子组成的,由此,我们就能够理解产生意识的物质流动是一个连续的过程,不是什么单独某个器官的现象,只是由于表达的关系,和受伤后表达“意识”受限而被认为意识是局限的,是大脑的。

理解了上面的内容我们最终得出的结论是,人体的意识实际是所有肢体组成结构综合的结果。

而这种体系导致的意识更本质的原因是什么?

是物质和物质之间的相互作用,现代科学认为这是能量代谢的结果,而能量为什么会代谢成有目的的意识却没有答案,而这个答案显然在物质的原始趋向性有关,例如太阳照射地表后,水汽会逃离地表,这是有显然的趋向性的,因此人类的意识形成最根本的本质应该是“太阳阳光和地表物质相互作用的结果”。且是体系性的结果,由于是体系性的,自然特性为基础,并是和外界的刺激相关的体系的一部分,因此它有无限纠错的特点。

那么人工智能呢?

人工智能是由计算语言设置而来的,最本质的是电子流动和制动两种机制匹配而来,这是一个反馈性的机制,它需要非自主的功能,需要人为的设计逻辑,通过电能到机械能。表象似乎象“人为”一样,但实际有明显的局别。以下是它的几点限制:

1.对能量来源的控制,人工智能无法为系统性稳定的能量补充来源,而人的意识可以,因为人体通过消化食物获能,有通过感觉寻找食物,而关键是可以通过感觉纠错。人工智能的机械性决定了它不能无限告知,因此无法无限纠错。

2人工智能的无法无限的获取知识,并无法自动剔除无用的逻辑。这一点很多人没有充分的认识。

划重点:凡逻辑必为规则,有规则的东西是无法顾及规则之外的东西,也就是:规则即缺陷。

因此,人工智能是无法代替人类的自然智能,也达不到意识的全面性和复杂性。

而现阶段更是如此,以上你可以认为还是难理解的。但回答几下问题必得基本本质:人的意识是什么?人的意识趋利的,机器的“意识”是什么?是人工逻辑,逻辑无法趋利。这就决定了两者本质区别。

在研究意识近20年后,我认为现代人对意识的概念过于表浅,并且模糊。由于人工智能的兴起,但是现有的方式显然不能达到一种完美,因为这些方法都有症结,不理解人类意识谈不上什么人工智能。

编辑于 07-21

人工智能可以产生自主意识吗?相关推荐

  1. 中国人工智能AI框架自主研发

    中国人工智能AI框架自主研发 中国AI界争相构建AI开源框架的背后,技术和业务层面的考量因素当然重要,但也不应忽视国家层面的政策支持.对于AI基础设施的建设,中国政府在<新一代人工智能发展规划& ...

  2. 大型AI已有自主意识了?LeCun开喷Open AI首席科学家

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 来源丨新智元 编辑丨极市平台 导读 作为AI界的明星研究所,老是搞事 ...

  3. 培养自主意识 塑造独立人格

    塑造独立人格 培养自主意识,实行自我管理,最根本的是塑造独立的人格.只有拥有独立的人格,才能做到舍弃依赖.自主独立.自我管理. (一) 独立人格 谈起美国青年崇拜哪些人物,很多人联想到比尔.盖茨.施瓦 ...

  4. 中国互联网用户自主意识的觉醒

    td p { margin-bottom: 0cm; }p { margin-bottom: 0.21cm; } 通常 ,互联网用户也称为"网民"(" Netizen&q ...

  5. 雄迈全景灯泡专利恶搞事件愈演愈烈, 人工智能企业专利保护意识渐增

    中国近年来在人工智能领域的研发实力"异军突起",自主知识产权保护情况却不容乐观.在27日北京召开的2018全球移动互联网大会上相关专家建议,中国人工智能初创企业应增强自主知识产权保 ...

  6. 人工智能时代来临,还需要那么多人吗?

    导读 2016年AlphaGo横空出世,大败人类顶级棋手.这不仅使公众对人工智能有了全新认知,更是多了一重人类与机器命运的深刻思考.人工智能会发展到什么程度?人工智能时代,还需要那么多人吗? 我们认为 ...

  7. 人工智能 漆桂林_人工智能音乐

    人工智能音乐 人工智能技术发展向好,不过一个客观事实是,让人类社会直接接受非人类创作主体是一件非常困难的事.就音乐领域而言,不论内行外行,似乎或多或少对通过算法创作的音乐产生鄙夷. 其实也可以想象,类 ...

  8. 详解人工智能、机器学习和深度学习的区别

    如果一台机器能够自行做出决定,这里面的智能包含这三个方面:人工智能.机器学习和深度学习.他们之间的有何关联? 今天来详解人工智能.机器学习与深度学习的关系与区别. 一.人工智能.机器学习与深度学习 人 ...

  9. Keras创建者深度思考:不要将AI作为操纵用户的工具

    还记得曾风靡一时的"电脑恐惧症"吗?从上世纪的80.90年代一直到21世纪初,我们都能亲眼目睹这种现象:伴随着PC逐渐进入生活.工作和家庭,很多人对其感到了焦虑和恐惧,以至于去攻击 ...

  10. 巴比特 | 元宇宙每日必读:上海虹口启动元宇宙方向孵化项目申报,最多可获20万元补贴,有哪些要求?...

    摘要:澎湃新闻报道:据上海市虹口区政府官网消息,2022年度虹口区科技创业中心科技孵化项目(元宇宙方向)申报工作已经开始.对于获得立项的科技孵化项目,虹口区政府将给予不超过20万元资金扶持.重点支持但 ...

最新文章

  1. 漫画解读语音识别技术的实现原理与应用
  2. 【c语言】蓝桥杯算法提高 淘淘的名单
  3. UVa --10566
  4. Android 如何将Canvas上绘制的内容保存成本地图片
  5. Java PipedOutputStream close()方法与示例
  6. php中接口验证失败,支付宝手机接口,服务端PHP验证失败,求助
  7. 栈应用:后缀表达式求值
  8. 启动tomcat的startup.bat闪退问题
  9. PenMount Touch显示鼠标指针驱动安装
  10. Wide character in print at ../lib/MonWalkProc.pm line 569.
  11. 七夕祝福网页制作_啥?七夕过了你还不知道自己为啥单身??
  12. iOS底层探索之Block(五)——Block源码分析(__block 底层都做了什么?)
  13. 20.Linux/Unix 系统编程手册(上) -- 信号:基本概念
  14. github视频教程-02 建立项目仓库以及代码上传
  15. GitHub使用技巧,在线ide编辑代码、在线运行代码、快速查找阅读代码
  16. Java 上传图片(Socket连接)
  17. 红旗h5中控台恢复出厂设置后不显示倒车影像问题
  18. 《九日集训》第五天打卡
  19. 万里汇WorldFirst个人和企业帐户注册教程(送$25+1%提现费)
  20. php检测硬件代码,查看“硬件设置”的源代码

热门文章

  1. php探针 网络使用状况,PHP探针 服务器运行状况和PHP信息用的
  2. Java Response实现文件下载
  3. CSF文件格式播放器
  4. linux佳入门教程,命令行基础工具的更佳替代品
  5. Android NetworkLocationProvider and GeocodeProvider
  6. 一些内网穿透的软件一览表
  7. 大学生爱情兵法-洪亚非-听课笔记
  8. 计算机桌面图标变小了,电脑桌面图标变小了怎么办
  9. 刷新计算机dns缓存的命令,Windows系统刷新DNS缓存命令是什么?Win7系统清除DNS缓存方法...
  10. linux安装软件统一格式化,Ubuntu 14.04安装格式转换软件Format Junkie 1.07