来源:神经现实

作者:曾毅研究团队 |

封面:Mario De Meyer

排版:光影

以深度神经网络为代表的现代人工智能模型在识别图像、语音、文字等模式信息任务取得优异表现。然而,生物大脑具有处理复杂多变的环境信息的能力,这一点是当下人工智能模型所欠缺的。生物大脑的高效性源于多个方面,大脑神经元的种类,数量以及连接的复杂性都是重要因素。此外,神经元发放的脉冲序列所具有的时间维度信息,大脑中可能存在的量子信息处理机制也有可能是大脑产生高级功能的关键。

受此启发,中国科学院自动化研究所类脑智能研究中心曾毅研究员团队提出了受量子叠加启发的脉冲神经网络(Quantum Superposition inspired Spiking Neural Network简称QS-SNN),相比传统的人工神经网络,在背景反转图像识别、带有噪声的图像识别方面都表现出了更好的泛化能力。相关文章发表在Cell出版社旗下期刊iScience上。

文献:Sun, Yinqian, Yi Zeng, and Tielin Zhang. "Quantum Superposition Inspired Spiking Neural Network." iScience (2021): 102880.

地址:

https://www.cell.com/iscience/fulltext/S2589-0042(21)00848-8

量子大脑假说

量子生物学研究发现一些生物反应过程中可以观测到量子效应,例如Sarovar等人发现在光合作用中,光合蛋白具有量子纠缠现象[Sarovar2010];Huelga等人观察到鸟类眼睛磁场感受器蛋白也存在长时程量子纠缠机制[Huelga2013]。

图1光合蛋白量子纠缠现象

[Sarovar2010]

图2鸟类眼睛磁场感受器蛋白的长时程量子纠缠机制

[Huelga2013]

大脑是否是一个量子信息处理系统是一个存在争议的议题。脑认知功能实现的基础是神经元及其之间的通信、计算,其重要机制之一是神经系统的电脉冲及在此基础上形成的突触可塑性机制。神经系统通过电脉冲进行编码和解码。Henry Stapp论证了离子在触发点上要么被吸收要么不被吸收的神经信号的传递机制是量子的,并不能够通过经典的概率进行解释。Stuart Hameroff和Roger Penrose合作指出神经元中的微管(Microtubule)是脑中量子过程的关键所在。后续的研究也进一步证实了微管中存在量子振动。Carol Weingarten和Matthew Fisher等人合作根据核磁共振(MRI)技术原理,提出神经元内磷原子核自旋同位素为载体的量子大脑理论[Weingarten2016]。自旋状态下的磷原子产生量子纠缠,通过化学反应构成纠缠态焦磷酸盐,并进一步与钙离子嵌合组成纠缠态波斯纳分子。波斯纳分子通过胞吞作用进入神经元,促进VGLUT囊泡运输谷氨酸到突触前,引起介导的谷氨酸释放,刺激突触后神经元产生量子关联的脉冲发放。

图3 量子大脑假说原理图

[参考Weingarten2016修改]

由此引发的量子大脑假说是否成立的广泛讨论从未停止。然而也有很多学者认为生物大脑不存在量子行为,主要是基于以下两个原因:(1)神经元信号分子、神经元和神经网络物理尺寸太大,量子现象无法在其功能中发挥重要作用。此观点认为,所有的量子事件会在如此大的物理尺寸中相互抵消掉,从而无法在大脑功能中展现出单独的作用[Penrose1995, Koch2006]。(2)神经元分子、神经元或神经网络与其嘈杂、潮湿和温暖环境的相互作用将破坏任何非平凡(non-trivial)的量子态,如叠加或纠缠。由于环境诱导退相干的速度极高,大脑应该被认为是一个经典系统,而不是量子系统[Tegmark2000]。

文章的责任作者,曾毅研究员强调:“然而,我们这次发表的文章的目的并不是为量子大脑假说提供直接的有说服力的证据,而是探索受量子信息理论和大脑脉冲信号编码启发的新型人工智能模型。和传统的人工神经网络有所不同,大脑具有的复杂认知功能,一方面源于其神经元和网络连接的复杂结构,另一方面也源于其强大的信息编码能力。以往的研究已很好的证明了量子计算的引入可以加速人工智能模型的信息处理,但我们希望另辟蹊径,通过量子理论的引入使得神经网络获得之前未有的能力。量子信息和神经元脉冲之间具有机制上的相似性。量子态以希尔伯特空间的复向量表示,对应的神经元脉冲也具有频率和相位时空维度信息,而传统的人工神经网络只在实数空间表示信息,信息维度的拓展意味着表示能力加强。在此基础上,我们提出了受量子信息启发的神经元脉冲频率-相位信息编码模式,结合脉冲神经网络(SNN, Spiking Neural Network),能够很好地处理背景翻转的图片,而传统的卷积神经网络则很难识别背景反转的图像信息。基于量子信息原理,背景翻转的图片被编码成量子叠加态形式,进一步转化为不同相位和频率的神经元脉冲。实验表明,量子叠加态脉冲神经网络模型能够在处理背景翻转的图片以及加入背景噪声的图片获得超过传统卷积神经网络的性能。”

图4量子叠加态脉冲神经网络模型

背景反转图片量子态编码

和时空脉冲序列

传统的量子机器学习研究中,会将图像处理方法与量子信息理论相结合,将图像转换为量子状态(例如常见的FRQI等方法),从而可以使用量子计算加速图像处理算法,然而这样的融合并没有赋予人工智能模型新的认知能力。

文章的第一作者博士生孙胤乾介绍说:“我们提出了一种互补叠加信息编码方法,并在量子图像形成和时空脉冲序列之间建立了联系,如图4所示。这种编码方法在借鉴传统量子图像编码的基础上,又与如柔性量子图像表征(FRQI)算法不同的是,我们使用纠缠态的量子比特编码原始图片信息和背景反转图片信息,而前者只是编码像素信息。编码成量子态的图片进一步转换为不同发放频率和相位的神经元脉冲信号,输入SNN进行识别分类。”

图5 生成量子态图像的电路拓扑与量子叠加态图像转换为脉冲序列

实验及结论

研究使用手写数字和物体识别数据集MNIST和Fashion MNIST的背景色反转图像,以此来挑战传统神经网络及这次研究提出的受量子叠加启发的脉冲神经网络(QS-SNN)模型在分类任务中的性能。QS-SNN将原始图像及其反转背景图像编码为互补叠加状态,并将其转换为脉冲序列,作为两房室SNN的输入信号。作为对比,这项研究也在背景反转的图片数据上测试了全连接的人工神经网络(ANN)网络、10层卷积网络(CNN)、VGG、ResNet以及DenseNet等神经网络模型。所有的模型都是在原始图片上训练然后在背景反转的图片上测试模型性能。

图6.不同的神经网络模型识别背景反转图像

结果表明,传统的全连接ANN和卷积神经网络模型难以处理图像属性的巨大变化,例如背景反转,即使保持图像的空间特征保持不变。QS-SNN模型相比较其他神经网络模型在识别背景反转图像时能够保持识别性能基本不变,这与人类的认知行为更接近。

除了改变整个背景的影响外,这项研究还对QS-SNN处理其他类型图像噪声的能力进行了测试。为此,在MNIST和Fashion MNIST图像中添加了反向脉冲噪声,并进一步测试了QS-SNN与ANN和CNN的性能。

图7 噪声图片识别结果

与其他神经网络模型相比,QS-SNN无论从识别性能还是抗干扰能力方面都更接近人类的视觉能力。随着更多反转像素噪声添加到图像中,它们变得越来越难以识别。然而,随着更多的噪声添加到像素中,图像特征再次变得清晰,QS-SNN迅速恢复了对图像的识别能力,而其他的神经网络却没有。QS-SNN得益于其类似于人类视觉系统的图像叠加态编码方法,能够很好地抵抗噪声的影响。

结论

这项工作旨在将量子理论与脉冲神经网络进行融合。量子图像编码和量子叠加态用于信息表征,随后转换为具有时空特征的神经元脉冲序列,使用SNN进行处理。文章提出的QS-SNN模型在以背景反转图像识别为代表的任务中表现出良好的性能,这对其他模型来说是非常具有挑战性的。无论是背景反转图像的识别还是带有噪声的图像识别,与传统的人工神经网络模型相比,QS-SNN都表现出具有更好的泛化能力。

曾毅研究员说:“4年前我们课题组开始布局类脑量子智能的研究,我们一直相信将量子理论融入类脑智能的研究会给传统的人工智能模型带来新的能力,以来自量子叠加的启发提出这种信息编码模型并与脉冲神经网络进行融合,获得的对反转图像以及抗噪信息处理的能力,虽然仍然是最初步的尝试取得的点滴成果,但这让我们继续开展系列的研究信心倍增”。

参考文献

1.[Penrose1995] Penrose, R., and Dennett, D. C. (1995). “Consciousness involves noncomputable ingredients,” in The Third Culture: Beyond the Scientific Revolution, ed. J.Brockman (New York City, NY: Simon & Schuster).

2.[Koch2006] Koch, C., and Hepp, K. (2006). Quantum mechanics in the brain. Nature 440, 611–612. doi: 10.1038/440611a

3.[Tegmark2000] Tegmark, M. (2000). Importance of quantum decoherence in brain processes. Phys. Rev. E Stat. Phys. Plasmas Fluids Relat.Interdiscip. Topics 61(4 Pt B), 4194–4206.doi: 10.1103/PhysRevE.61.4194

4.[Sarovar2010] Sarovar, M., Ishizaki, A., Fleming, G. et al. Quantum entanglement in photosynthetic light-harvesting complexes. Nature Phys 6, 462–467 (2010). https://doi.org/10.1038/nphys1652

5.[Huelga2013] Huelga, Susana & Plenio, M.. (2013). Vibrations, Quanta and Biology. Contemporary Physics. 54. 10.1080/00405000.2013.829687.

6.[Weingarten2016] Weingarten, Carol & Doraiswamy, P. & Fisher, Matthew. (2016). A New Spin on Neural Processing: Quantum Cognition. Frontiers in Human Neuroscience. 10. 10.3389/fnhum.2016.00541.

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

类脑量子叠加脉冲神经网络:从量子大脑假说到更好的人工智能相关推荐

  1. 清华张悠慧:AI时代,「图灵完备」之后,「类脑计算完备」如何设计?

    智源导读:2021年6月1日,清华大学计算机系研究员.类脑计算研究会成员张悠慧,在北京智源人工智能大会智能体系架构与芯片论坛做了题为"类脑计算系统基础软件研究"的报告.报告首先简要 ...

  2. 开源项目推荐 | 中科院自动化所历时9年打造的类脑认知智能引擎“智脉”正式开源部署至OpenI启智社区

    ​人脑能够自组织地协同数百项认知功能,灵活适应复杂多变的环境.如何整合多尺度生物可塑性法则来构建具有生物合理性和计算高效性的神经网络模型是类脑人工智能和计算神经科学领域共同关注和面临的重要挑战. 中国 ...

  3. 基于人脑神经元与神经信息交流机制的类脑计算模型研究

    基于人脑神经元与神经信息交流机制的类脑计算模型研究 摘 要:在当下社会人工智能发展得如火如荼,但在发展火热的背后,以深度学习为代表的传统人工智能算法已经到达瓶颈期,所需的巨大的数据样本和和计算资源使研 ...

  4. 脉冲神经网络原理及应用,脉冲神经网络发展前景

    脉冲神经网络的简介 脉冲神经网络(SNN-SpikingNeuronNetworks)经常被誉为第三代人工神经网络.第一代神经网络是感知器,它是一个简单的神经元模型并且只能处理二进制数据. 第二代神经 ...

  5. 施路平教授:面向人工通用智能的类脑计算

    在2019年10月31日的北京智源大会"智能体系架构与芯片专题论坛"中,清华大学类脑计算研究中心主任施路平教授为我们分享了题为<面向人工通用智能的类脑计算>的主题演讲. ...

  6. 十问亿级神经元类脑计算机:AI领域有望突破,哪些还需火候

    来源:澎湃新闻 近日,浙江大学联合之江实验室共同研制成功了中国首台基于自主知识产权类脑芯片的类脑计算机(Darwin Mouse). 研究团队在9月1日的成果发布会上指出,该类脑计算机在神经元规模上超 ...

  7. 清华类脑计算成果再登Nature:张悠慧施路平团队出品,有望打破冯诺依曼瓶颈...

    贾浩楠 发自 凹非寺 量子位 报道 | 公众号 QbitAI 清华类脑计算研究成果,再登Nature. 新研究的关键词是:类脑计算.新计算机系统框架.通用人工智能(AGI). 它的重要性,在于有希望打 ...

  8. 10个类脑计算最值得关注玩家 |量子位智库报告(附下载)

    量子位智库 发自 凹非寺 量子位 | 公众号 QbitAI 为什么要关注类脑计算? 因为随着数据量的攀升,目前的计算机系统已面临三大挑战: "集成密度"问题."存储墙&q ...

  9. 专访微软邓力:语音识别与非监督深度学习、增强学习、词嵌入、类脑智能

    在俞栋接受CSDN专访解读基于深度学习的语音识别技术及CNTK开源软件的同时,<解析深度学习-语音识别实践>一书的另一位作者.微软人工智能首席科学家邓力也接受CSDN专访,以另外的视角诠释 ...

最新文章

  1. python面试-Python面试题总结
  2. Openfire配置过程,以及与php交互注意事项。
  3. elementui源码_Element UI 终于还是来啦
  4. C#中各种数组的性能比较
  5. 【好文链接】什么是最小二乘法?
  6. ArcGIS9.3 SDE安装
  7. java基础之测试类
  8. 制作Win10 U盘版移动便携系统
  9. 华为荣耀9手机通过在Fastboot模式写ramdisk.img来获取ROOT权限 | 华为荣耀9怎么获取ROOT权限 | 华为荣耀9怎么用面具Magisk做ROOT权限
  10. 中国行政村边界数据、乡镇街道边界
  11. 【Debug系列】ImportError: No module named ‘_tkinter‘
  12. 【思考】windows补丁提权的疑问
  13. Scheme语言深入
  14. 每个人心里一亩一亩田,每个人心中一个一个梦
  15. 鹏哥手把手带我刷好题 · 编程练习 · I
  16. SDN:简述对各类SDN交换机的认识
  17. python挖掘B站猛男手游公主连结的另类操作!
  18. 烤仔观察 | 秋天的第一口“菠萝”真的那么好吃吗?
  19. 狂神说——大前端进阶NodeJS、Npm、Es6、Babel、Webpack、模块化使用
  20. 国产CRM软件都有哪些

热门文章

  1. 利用Python在Jetson TX2上抓取和显示摄像头影像
  2. opencv resize (C/C++/Python)
  3. 区块链论文8,NIPoPoWs,非交互工作量证明之证明
  4. 【干货书】数据科学家统计学基础:R和Python实战
  5. 8W+文本数据,全景式展现中国教育发展情况
  6. 独家 | NLP详细教程:手把手教你用ELMo模型提取文本特征(附代码论文)
  7. 详解AI Lab 21篇CVPR 2018论文(附论文)
  8. A Survey on Techniques in NLP--阅读笔记
  9. 京东AI研究院计算机视觉实验室招聘研究型实习生
  10. 2023年中国AI论文影响力超越美国?网友:长期看,数量不等于质量