图源:海德堡大学

人工神经网络是如今最成功的人工智能(AI)算法,它的基本构成是按照我们大脑真实神经网络的处理模式,一般来说,隐藏层越多,越复杂,网络精度就越高。但基于计算机运行的人工神经网络会消耗惊人的能量和时间,而且它的效率远不及人类的大脑运算能力。为了提高AI算法的效率,科学家们将目光转向如何令AI系统能够像人脑一样处理信息,即如何让这个系统在结构成分上更像大脑?

其中一个重要的改进就是神经形态计算(neuromorphic computing)的出现,和传统AI算法中中央处理单元和记忆芯片之间长距离传输数据的结构不同的是,神经形态的设计考虑了人类大脑中的胶状物质结构,即将计算单元(神经元)放置在记忆单元(存储在连接神经元的突触中)旁边。这种设计更接近于我们大脑的运行原则和物质结构,与目前仅依靠二进制信号处理0和1的数字计算机的架构和计算模式有很大的不同,在计算效率上大大提高,可能在未来是实现AI节能的重要环节。而为了让它们更像大脑,研究人员将神经形态芯片与模拟算法相结合,令其可以像真实的神经元一样处理连续的信号。

以大脑结构为向导,神经形态芯片有望在未来节省掉像AI这样需要大量数据的计算任务消耗的能量。但实际上目前AI算法不能很好地与这些芯片的模拟版本相配合,主要原因来自设备不匹配:在芯片上,模拟神经元内部的微小组件在制造过程上很难达到尺寸匹配,则单个芯片精密度不够,无法运行最新的训练程序,因此算法必须首先在计算机上进行数字化训练。但是,当算法被转移到芯片上时,一旦在模拟组件上遇到不匹配,它们的性能就会崩溃。幸运的是,今年一月份发表在《Proceedings of the National Academy of Sciences》上的一篇论文终于揭示了一种可以避开这个问题的方法。

由弗里德里希·米歇尔生物医学研究所(FriedrichMiechell Institute for Biomedical Research)的FriedemannZenke和海德堡大学(Heidelberg University)的Johannes Schemmel领导的研究团队实现了一种名为脉冲神经网络(SNN)的AI算法,可以利用大脑的独特通信信号(峰值信号)与芯片工作以学习补偿设备之间的不匹配问题。这篇论文是利用人工智能实现模拟神经形态计算的重要一步。2011年,海德堡大学的一组研究人员开始开发一种同时具有模拟和数字模块的神经形态芯片,以便在神经科学实验中近似模拟大脑。现在由Schemmel领导的团队已经公布了最新版本的芯片,该研究团队改善不匹配问题的核心方法是利用替代梯度学习的环路(ITL)模拟神经形态系统,并将其应用于混合信号的BrainScaleS单片机系统,被称为BrainScaleS-2。

 BrainScaleS-2芯片结构

图1混合信号BrainScaleS-2芯片

(A)芯片特写;(B)在模拟神经形态核心上实现多层网络,输入脉冲序列通过突触驱动程序(三角形)注入,并通过突触阵列传递到隐层神经元(绿色圆圈)。隐藏层中的峰值信号被按指定路径到芯片上的输出单元(红色圆圈)。每个连接单位由一对兴奋性和抑制性硬件突触表示,它们持有信号权重。模拟膜电位通过CADC读出,并由PPU进一步处理。

每当膜电位超过触发阈值时,就会传出一个峰值信号,随后膜电位被重置,芯片上的事件通过路径将内部和外部产生的峰值信号传播到连接神经元,形成前馈和循环拓扑结构。为了实现这一功能,每个神经元整合了来自256个突触列的刺激,每个突触都有一个6 bit的权重存储在随机访问局部静态存储器中。由此产生的突触后电流I集成在膜电容器上并且遵循类似细胞膜动力学本身的指数时间进程。突触信号被视为突触前的性质。另外,通过合并相反符号的突触回路,可以实现训练过程中正权值和负权值之间的连续转换。另外,BrainScaleS-2允许单独调整所有神经元参数,包括参考电位和时间常数,在每个神经元的基础上灵活模拟不同的目标动态性能。这种细小单位控制还有助于校准,从而降低处理进程中的变化引起的偏差。

模拟硬件上的ITL替代梯度

为了在BrainScaleS-2上训练SNN,团队开发了一个基于替代梯度的通用学习框架来优化循环和多层网络,方法如下:首先,在模拟神经形态基质上模拟正向传递过程,并记录峰值和内膜痕迹(图2A和B),通过将内膜痕迹注册到近似的软件模型中,可以有效呈现神经形态SNN的可区分性。同时,该团队的学习算法能够对模拟元件的参数失配进了自校正(图2C),最后,闭环的实现主要通过将更新后的权值传递回模拟系统。

图2BrainScaleS-2替代梯度学习

(A)ITL训练方案图解,正向传递在BrainScaleS-2芯片上进行模拟,神经形态基质中的可视数据和输入脉冲序列在传统计算机上处理,以便向后传递,接下来计算出的权重被更新后写入神经形态系统。(B)通过CADC并行记录256个神经元的模拟痕迹和峰值数据。(C) 泄露整合放电的动力学积分得到的可微计算图,时间维度从左到右展开,信号在集成过程中从下到上流动。突触电流由前一层的峰值和隐藏的循环连接乘以各自的权重(W)获得。刺激被整合到在神经元细胞膜(V)上,当神经元越过阈值时触发脉冲(S)。这些观测数据与硬件记录的数据连续同步,峰值和复位信号(RST)被传递到下一个时间进程。

BrainScaleS-2的分类效果

研究人员利用ITL学习框架对BrainScaleS-2进行了一系列基于峰值信号的视觉和语音识别任务的训练。在视觉识别训练过程中,神经形态基质学会了正确地推断并将正确的成员类别作为最大的响应输出单元。然而其他单元的抑制并没有在损失函数明确定义的,而是通过优化自然出现的。100个epoch之后,模型几乎完美地拟合了训练样本,训练精度达到97.2%。语音分类中SNN的识别正确率在训练集中达到了96.6%,测试集中达到了76.2%,后来,研究人员通过数据扩充将测试集正确率提高到了80.6%。总之,这些结果都体现了ITL学习的灵活性也适用于循环SNN解决难度较大的语音处理问题。

图3视觉数据的分类。

(A)三张SNN活动快照,包括缩减后的16×16张输入图像(上),输入脉冲序列和隐层活动的放电栅图(中)和读出的神经元轨迹(下);后者显示了一个清晰的分离效果,即一个正确分类的图像。(B) 5个初始条件下100个训练期的损耗和精度。(C)决策时间始终低于10 μs。这里,分类耗时由迭代重新计算限于[0,T]时间内输出痕迹的max-over-time确定。(D)较短耗时允许每11.8 μs注入一幅图像,相当于每秒超过85000个分类,通过人工重置样本之间的神经网络状态来实现。(E)神经形态系统可以通过训练来进行稀疏活动的分类,当扫描正则化强度时,不止一个数量级的隐层脉冲计数中可以看到高性能状态。

图4 BrainScaleS-2上循环SNN对自然语言的分类

(A)循环网络对数据集的响应。来自于语音数字录音的输入脉冲序列刺激被减少到70,根据输出单元膜痕迹的累加损耗对网络进行训练。(B)超过100个训练后,网络形成了合适的表征,训练损耗和错误减少证明了这一点,这里显示了5个不同的初始条件。当训练有固定递归权值的网络时,它会汇集到较高的损耗和误差。(C) 20个类别的分类表现各不相同,尤其某些类别有相似音位。(D)经过训练的网络可以很好地概括数据集中包含的大多数未知语音数据。

荷兰国家数学和计算机科学研究所CWI的神经网络专家Sander Bohte说,令人惊讶的是,它的效果如此之好。这是一个相当大的成就,甚至是更多类似神经形态系统的蓝图。传统的数字计算可以有效地表示大脑的脉冲信号的一个二元方面,与二进制数字信号一样,要么发送脉冲,要么不发送。但峰值信号是随着时间不断发送的,这是一种模拟信号。基于细胞内电压随时间的变化过程,我们的神经元如何决定首发的脉冲信号也是连续的。

模拟计算对基于大脑的计算系统有一种微妙的重要性。人脑之所以有如此完美高效的计算能力,其核心就在于模拟。而BrainScaleS-2上的每个模拟神经元都能模拟大脑细胞的电流和电压变化,这样就拥有了一个不断交换信息的动力系统,作者表明脉冲神经网络可以学习如何校正BrainScaleS-2芯片上的变化电压。替代梯度法有效地解决了芯片在计算机上训练时的缺陷。首先,脉冲神经网络利用芯片上模拟神经元的不同电压执行一项简单的任务,将电压记录发送回计算机。在那里,算法自动学习如何最好地改变神经元之间的连接,以保持与模拟神经元的良好互动,并在学习的同时不断地在芯片上更新它们。当训练完成后,峰值神经网络可在芯片上执行任务。研究人员报告说,他们的神经网络在语音和视觉任务上的准确率达到了与在计算机上执行任务的顶级神经网络相同的水平。这是个惊人的效果,算法准确地了解了它需要做哪些改变来克服设备不匹配的问题。而且,正如预期的那样,它们的能源效率令人惊喜;作者说,在芯片上运行他们的算法所消耗的能量相比标准处理器降低了1000倍。

尽管该方法目前仍然需要在计算机和芯片之间来回传输数据,难以扩展到大型实际任务,但利用模拟人脑神经形态算法的方式模拟了人脑计算的低耗能,这在AI算法发展进程中无疑是一个飞跃。它的长期目标是让神经网络从开始到结束都在神经形态芯片上训练和运行,而完全不需要电脑,这可能需要数年时间,但Zenke和Schemmel的团队对此十分有信心。

参考文献

Cramer B, Billaudelle S, Kanya S, LeibfriedA, Grübl A, Karasenko V, Pehle C, Schreiber K, Stradmann Y, Weis J, Schemmel J,Zenke F. Surrogate gradients for analog neuromorphic computing. Proc Natl AcadSci U S A. 2022 Jan 25;119(4):e2109194119. doi: 10.1073/pnas.2109194119. PMID:35042792; PMCID: PMC8794842.

参考链接

https://www.quantamagazine.org/ai-overcomes-stumbling-block-on-brain-inspired-hardware-20220217/


仅用于学术交流,不用于商业行为,若有侵权及疑问,请后台留言,管理员即时删侵!

更多阅读

味觉可以被识别吗?脑机接口在味觉感知中的新应用

军科院医学研究院神经工程与脑科学研究团队2022年招聘启事

脑-机交互运动训练的神经反馈方法及康复应用

脑机接口如何改变未来?

使用大脑活动反馈的刺激技术自动化治疗脑部疾病

脑科学与脑机接口创新企业诺尔医疗NeuroEchos获得亿元融资

加入社群

欢迎加入脑机接口社区交流群,

探讨脑机接口领域话题,实时跟踪脑机接口前沿。

加微信群:

添加微信:RoseBCI【备注:姓名+行业/专业】。

加QQ群:913607986

欢迎来稿

1.欢迎来稿。投稿咨询,请联系微信:RoseBCI

2.加入社区成为兼职创作者,请联系微信:RoseBCI

助力脑机接口发展


点个在看祝你开心一整天!

脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能相关推荐

  1. 类脑计算:让人工智能走得更远

    来源:中国科学报 像人一样思考,这是人们对人工智能和机器人的期待.大踏步前进的人工智能,似乎走到了十字路口. "机器综合智能水平和人脑相差较大,机器学习需要较多人工干预,不同人工智能模态之间 ...

  2. Nature重磅:软硬分离、图灵完备,清华首次提出“类脑计算完备性”

    来源 | 清华大学计算机系校友会 北京时间10月14日,清华大学计算机科学与技术系(以下简称"计算机系")张悠慧团队.精密仪器系(以下简称"精仪系")施路平团队 ...

  3. l2空间的完备性_什么是“类脑计算完备性”?清华团队在Nature首次提出!

    北京时间10月14日 清华大学计算机系张悠慧团队 精仪系施路平团队与合作者 在<自然>(Nature)杂志发文 首次提出"类脑计算完备性" 以及软硬件去耦合的类脑计算系 ...

  4. 清华大学张悠慧:超越冯·诺依曼模型,实现软硬件去耦合的类脑计算(附视频)

    软硬件去耦合是计算机系统结构中非常重要的设计方法论.简单来理解,即软件研发人员不需要考虑底层硬件如何设计:而硬件开发人员则只需要遵循一定指令集规范,并不用担心兼容性,也不用考虑上层软件开发问题.多年以 ...

  5. 北大计算机系黄铁军CCF-ADL讲习班上篇:从计算机发展史讲解制造超人工智能的正途——类脑计算...

    2017 年 7 月 28-30 日,由 中国计算机学会(CCF)主办的高端学术活动--中国计算机学会学科前沿讲习班(CCF Advanced Disciplines Lectures,简称 ADL) ...

  6. 类脑计算与神经网络加速

    今天花了一下午时间看了一期计算机学会通讯的杂志,这期的专题是<类脑计算>,正好与我目前研究的深度学习有很大的关联,看完这期杂志之后得到了不少感悟,在这里稍作总结.当然首先给出这期杂志的地址 ...

  7. 率清华团队研发“天机芯”登《Nature》封面,他说类脑计算是发展人工通用智能的基石...

    整理 | AI科技大本营(ID:rgznai100) 8 月,清华大学教授.类脑计算研究中心主任施路平率队研发的关于"天机芯"的论文登上<Nature>封面,这实现了中 ...

  8. 清华张悠慧:AI时代,「图灵完备」之后,「类脑计算完备」如何设计?

    智源导读:2021年6月1日,清华大学计算机系研究员.类脑计算研究会成员张悠慧,在北京智源人工智能大会智能体系架构与芯片论坛做了题为"类脑计算系统基础软件研究"的报告.报告首先简要 ...

  9. 清华类脑计算成果再登Nature:张悠慧施路平团队出品,有望打破冯诺依曼瓶颈...

    贾浩楠 发自 凹非寺 量子位 报道 | 公众号 QbitAI 清华类脑计算研究成果,再登Nature. 新研究的关键词是:类脑计算.新计算机系统框架.通用人工智能(AGI). 它的重要性,在于有希望打 ...

最新文章

  1. 双指针算法之滑动窗口 | 力扣76.最小覆盖字串
  2. 怎么判断间隙过渡过盈配合_尺寸公差配合与装配方法
  3. 接oracle私活价格,也来记录一下第一次接私活的体验
  4. 软件项目组织管理(七)项目成本管理
  5. 程序员“苦逼值”测试,分数越高越苦逼
  6. alexa技能个数_如何改善Alexa技能的对话流程
  7. android camera(6)---camera2 拍照流程
  8. 小米MIX 4要来了?这硬件“堆”的也是没谁了 全是最新技术
  9. linux 配置apache的虚拟主机
  10. 关于数组表示的二叉结构中,下标乘除法对应关系的理解
  11. 将字符转换成带有圆圈的字符
  12. python中利用pygame模块输出文字
  13. win7下vs2017安装奋斗纠结过程
  14. 多维Ellipse(椭球)形状与方程对应关系分析
  15. 国际贸易13种术语你都了解吗?
  16. Python学习笔记——基础篇【第六周】——shutil模块
  17. Quectel EC20 获取 MCC,MNC,APN
  18. 天津化工杂志天津化工杂志社天津化工编辑部2022年第3期目录
  19. DSF(Debugger Services Framework) service介绍
  20. Python的Pexpect模块详解

热门文章

  1. 新加坡NETS高管Alvin Seck先生访问日本,以利用NIPPON Platform促进业务发展
  2. WIndow10下安装UR机器人接口ur_rtde
  3. mysql executing_MySQL数据库出现慢查询的危害
  4. Android P SELinux (三) 权限检查原理与调试
  5. 升级iOS 15后iPhone无法连接App Store怎么办?
  6. One-Error多标签分类_多分类及多标签分类算法
  7. ISTQB认证考试通过秘籍 问题一、ISTQB是什么?有哪些分类? ISTQB(International Software Testing Qualification Board)是国际唯一权威的软
  8. 五一培训 清北学堂 DAY3
  9. 想比较全面地学习 SAP XXX,能指导下从哪儿开始学习吗?
  10. 4十4十4写成乘法算式_乘法口诀和乘法算式怎么写