427,SNN机理性测试

SNN利用时空处理,脉冲稀疏性和较高的内部神经元带宽来最大化神经形态计算的能量效率。尽管可以在这种情况下使用常规的基于硅的技术,但最终的神经元突触电路需要多个晶体管和复杂的布局,从而限制了集成密度。论文展示了双门高斯异质结晶体管的前所未有的静电控制,可简化尖峰神经元的实现。这些设备采用晶片级混合尺寸的范德华异质结,包括化学气相沉积的单层二硫化钼和溶液处理的半导体单壁碳纳米管,以模拟生物神经元中产生脉冲的离子通道。基于这些双门高斯器件的电路可以实现多种生物脉冲响应,包括相位脉冲,延迟脉冲和强音爆发。除神经形态计算外,可调高斯响应对一系列其他应用(包括电信,计算机视觉和自然语言处理)也具有重要意义。

428,脉冲神经网络SNN拟脑探索

隨着对生物大脑进行建模的计算机的需求不断增长,神经启发性计算机领域已发展到了脉冲神经网络(SNN)的探索,并克服了传统的冯-诺依曼架构所靣临的挑战,基于硬件的神经形态芯片已被设计。神经形态芯片基于脉冲神经元,仅当它们接收到脉冲信号才处理输入信息。给定稀疏分布的输入脉冲序列,由于可以将不受传入脉冲驱动的网络的大部分设置为功率门控模式,因此可以减少此类事件驱动硬件的功耗。在硬件中构建具有大量突触的脉冲神经形态芯片需要解决的挑战包括构建具有低功耗的小型脉冲神经核,高效的神经编码方案和轻量级的片上学习算法。在这篇论文中介绍了用于3D-NoCSNN处理器的轻量级脉冲神经元处理内核(SNPC)的硬件实现和评估,以及其片上学习模块的设计。SNPC嵌入256个Leaky integrate andFire(LIF)神经元和基于交叉开关的突触,覆盖0.12mm平方的芯片面积。使用MNIS丅数据集对其性能进行评估,得出的推理精度为97.55%。

参考https://ieeexplore.ieee.org/abstract/document/9070764

429,浪潮在全球人工智能顶级赛事中胜出

开发自动深度学习解决方案

人工智能学术会议NeurIPS举办的自动深度学习总决赛4月17日公布最终成绩,浪潮赛队在来自谷歌、微软、卡内基梅隆大学等众多赛队中胜出,位列第三。该大赛是全球人工智能领域的顶级赛亊,以难度大、赛题新、赛程长著称。

浪潮参赛队针对本次挑战赛开发了自动深度学习解决方案,将自动数据处理、自动模型构建、自动参数优化等核心组件进行全两面优化,实现了同一系统针对不同任务场景的全自动化模型构建。同时系统自动调试完成模型优化,大幅度提升了模型精度识别和算法优化效率。

430,新华网4月24日报导:中科院许晓鸿研究员团队在脑机接口研究中,针对“攻击行为如何被大脑控制?”课题研究时,在试验小鼠大脑中发现“调节开关。”

431,阿里云EMR在开源技术架构上在国内率先解决计算存储分离下的性能损耗以满足大规模场景需求

贾扬清团队攻克大数据性能瓶颈获两屆国际顶级赛事冠军

贾扬清(阿里云计算平台事业群总裁)团队攻克大数据计算性能瓶颈,阿里云EMR连续两年破世界记录。

4月26日,大数据领域权威竞赛TPC一DS公布最新结果,阿里云作为全球唯一入选的云计算公司获得第一。

EMR,ElasticMapReduce是阿里云大数据团队提供的一项Web服务,简化了大数据处理。

过去一年,阿里云EMR在原有开源技术架构上,自研JindoFS等创新技术,在国内率先解决了计算、存储分离下的性能损耗问题,可满足大规模计算场景的性能需求。

去年阿里云EMR首次打破该竞赛记录,成为全球首个通过TPC认证的公共云产品,今年在这一基础上,EMR的计算速度提升了2.2倍,连续两年打破了这项大数据领域最难竞赛的世界纪录。

432,Loihi—PohoikiSprings大规模神经拟态计算系统

今天,英特尔公布其迄今为止最大规模神经拟态计算系统PohoikiSprings,包含1亿个神经元!这一大小,堪比小型哺乳动物的大脑容量。

英特尔神经拟态计算实验室主任Mike Davies表示:“PohoikiSprings将我们的Loihi神经拟态研究芯片扩展了750倍以上,同时可在低于500W的功率水平下工作”。

如今,神经拟态计算已被普遍看作是解决人工智能等计算难题的重要途径。著名研究机构Gartner预测,到2025年,神经拟态芯片有望取代GPU,成为先进人工智能部署的主要计算架构。

与传统处理器相比,英特尔Loihi芯片速度快1000倍,能效高10000倍。

英特尔今天公布的PohoikiSprings进一步扩展,将768颗Loihi神经拟态研究芯片集成在5台标准服务器大小的机箱中,形成了一个更强大的机架式数据中心系统。

这一系统将提供给英特尔神经拟态研究社区(INRC)的成员,以扩展其神经拟态工作来解决更大规模且复杂的问题。

433,英特尔神经拟态计算实验室主任MikeDavies接受芯东西等媒体线上采访

提问:

从第一颗Loihi芯片诞生到如今发布最大神经拟态系统,英特尔神经拟态计算如何起步?

如今在各种计算架构中,英特尔神经拟态计算的技术特点是什么?它致力于解决哪些核心问题,又如何克服哪些技术挑战?

同样是支持大规模运算任务的前沿计算技术,神经拟态系统与量子系统有哪些不同?

隨着1亿神经元的PohoikiSprings系统问世,神经拟态计算发展到什么阶段?英特尔是否已有明确的商业计划?

Mike全面解读了英特尔神经拟态计算的研究进展、技术特性、应用示例与所面临的商业化挑战。

Mike告诉大家,英特尔不打算做面向特定应用的专用芯片,而是希望能让神经拟态计算实现和冯-诺依曼架构相似的通用性。

Mike说,距离将产品推向市场,还将等待数年。

434,英特尔MikeDavies解读神经拟态计算

研发像大脑一样聪明的自主学习芯片,灵感来自交换机和摇头娃娃。

大脑神经网络通过脉冲传递信息,根据脉冲时间调节突触强度或突触连接的权重,并把这些变化存储在突触连接处。大脑神经网络与其环境中多区域间相互作用,就产生了种种智能行为。它能同时学习语音任务、视觉任务、决策任务、操作控制等许多任务,并且仅仅消耗非常低的能量。

在自然界,很多昆虫大脑的神经元远低于100万个,就能做到实时视觉跟踪物体、导航和躲避障碍物。

那么在硬件层面上能不能复制大脑神经元组织、通信和学习方式,打造出一种更智能的系统呢?这种颠覆传统计算机架构的新型计算模式就是神经拟态计算。

英特尔神经拟态计算的研究始于几十年前与加州理工学院CarverMead教授的合作,他是半导体专家,今天我们需要芯片专业知识、物理学和生物学的结合,为这一创想提供了可行的土壤。MikeDavies是英特尔神经拟态计算实验室主仛,当年他在FulcrumMicrosystems研究以太网交换机,而交换机芯片异步设计适合于神经拟态芯片的原型架构、算法、软件和系统的研究,它采用一种新颖的异步脉冲方式来计算。怎么让Loihi芯片模拟大脑进行学习呢?在芯片上运行简单的图像识别神经网络,先是看到物体,再输入物体名称,训练后就能快速准确辨认出是什么东西,摇头娃娃给研究者很大启发,使训练后的Loihi芯片能从人堆中识别特定对象。

神经拟态计算较之传统计算架构的优势在于超低延时、超低功耗。

在谈到与量子计算比较时他说,英特尔现在已经有了可使用支持1亿神经元的神经拟态系统,但距离拥有1亿量子比特的计算系统还很遥远。

英特尔于2028年3月建立神经拟态研究社区(INRC),使用Loihi芯片为研发活动的架构焦点,推动神经拟态算法、软件和应用程序的研发。

最后他说,神经拟态系统仍处于研究初级阶段,其设计目的并非取代传统的计算系统。

除英特尔外,IBM、惠普、麻省理工学院、普渡大学、斯坦福大学等顶尖研究机构,都在推进类脑计算的相关研究。

前路依然漫长,研究人员终极目标是接近当今性能最强大的计算机——人类大脑。

435,科学家在小鼠脑中发现攻击行为“调节开关”

攻击行为是大多数动物重要的本能行为,也是躁狂症、双相情感障碍等精神疾病的表现形式。深入研究攻击行为发生的神经机制,可为病理性攻击行为提供新的治疗思路,最终为人类治疗病理性精神疾病服务。

由中科院神经科学研究所、上海脑科学与类脑研究中心、神经科学国家重点实验室许晓鸿研究员率领的研究团队对小鼠大脑皮层在攻击行为中的神经机制进行研究,在小鼠大脑中发现攻击行为的“调节开关”。

小鼠感知外界入侵者的刺激后,从调整自身状态,到最终输出攻击行为,整个过程需要大脑内一系列“核团”的参与。其中,主要以“下丘脑腹内侧核”为核心,其他脑区与其形成直接与间接的连接,参与攻击行为的发生。“下丘脑腹内侧核”属于皮层下结构。

他们的研究论文近日在国际权威学术期刊《细胞报导》(CellReports)上在线发表。

436,神经退行性疾病治疗曙光初现

人类的神经元系统包含成百上千种不同类型的神经元,这些纷繁复杂的细胞极其重要,但有个致命“弱点”:一般不会再生,即一旦死亡,就是永久性的。这就是人类患有的神经退行性疾病,目前全球患者约1亿人。

如何在体内安全再生出特异类型的神经元,用以治疗不同神经退行性疾病,这是全球众多科学家一直努力的方向。

由中科院神经科学研究所与上海脑科学与类脑研究中心联合组成的研究团队进行神经退行性疾病研究,他们的研究成果发表在顶级医学期刊《细胞》上(在线发表)。

他们首次在成体小鼠中成功实现视神经元再生,并恢复了永久性视力损伤模型小鼠的视力。这意味着小鼠的神经元也可再生了。该研究将为未来多种神经退行性疾病治疗提供一个新途径。

437,索尼将自己开发一款PlayStation5的游戏机配件引入其开发的新一代陪玩机器人,提升机器人的体验为可以感知玩家情绪,并作出应对。

索尼将这款机器人视觉化,让它看起来像云一样的生物,有眼睛、手臂和腿,被称为“陪玩机器人”,它不只停留在游戏上,还可陪玩家看电视、看电影。

通过在陪玩机器人上安装的摄像头和各类传感器,可实时观察和分析玩家的状态,判断玩家情绪、分辨玩家表情、分析玩家紧张程度、感知玩家情绪。

438,神经拟态计算技术PK传统人工智能加速技术

2017年,英特尔第一款自主学习神经拟态芯片Loihi问世(采用14nm工艺,每颗芯片125个内核,每个内核支持1000个神经元,单颗芯片支持13万个神经元、1.28亿个突触),接着开发PohoikiSprings(2020年3月发布),由768颗芯片集成组成神经网络支持1亿个神经元组网。从此Loihi发展成1亿神经元大规模的神经拟态计算系统。

神经拟态计算技术与传统的人工智能加速技术相比,有哪些技术特点?两者有哪些相同或不同?(包括所解决任务的不同)

神经拟态计算技术与人工智能加速技术两者都是为了处理人工神经网络而设计的,同样是支持大规模运算任务的前沿计算技术。

传统设计的AI芯片,即人工智能加速器是一类专用于人工智能(如人工神经网络、机器视觉、机器学习等)硬件加速的微处理器或计算机系统。据英特尔神经拟态计算实验室主任MikeDavies谈,英特尔不打算做面向特定应用的专用芯片,而是希望能让神经拟态计算实现通用性。

神经拟态计算与传统的人工智能加速器主要差异在哪里?

我们先从两者的定义出发:

众所周知,传统的AI芯片是一类专用于人工智能硬件加速的微处理器(CPU、GPU)或计算机系统。

所谓神经拟态计算技术是将人类大脑功能映射到硬件上,即直接用硬件(神经拟态芯片)来模拟人类大脑结构(这种方法叫神经拟态计算)。

两者最大区别在:

神经拟态技术研究类脑芯片严格按人脑的机制,将训练和推理整合到一块芯片(如Loihi)上,实现存储与计算融合;而基于传统冯-诺伊曼计算架构设计的AI芯片虽然声称是类脑芯片,但它并未严格按人脑机制,其训练与推理是分离的,存储与计算也是分离的。这样神经拟态计算技术变得更加智能、快速和高效,与传统处理器比,Loihi芯片速度快1000倍,能效高10000倍。

神经拟态计算技术相较传统架构的优势不在于吞吐量而在于超低延时和超低功耗。

国际著名IT调研分析公司Gartner认为:如今神经拟态计算已被普遍看作解决人工智能等计算难题的重要途径。预测到2025年,神经拟态芯片有望取代GPU成为先进人工智能部署的主要计算架构。

所谓Loihi芯片拥有并行性和异步信号传输能力,在这里谈到并行计算,公平地说两者是一样的,但神经拟态计算自然拥有异步信号传输能力的优势!它采用一种新颖的异步脉冲方式来计算,像人脑一样根据环境的反馈来自动学习如何操作,随着时间的推理,变得越来越智能、快速和高效。

以往国内外都在开发传统的专用的AI芯片(人工智能加速器),神经拟态系统仍处于初级研究阶段,但除英特尔外,IBM、惠普、麻省理工学院、普渡大学、斯坦福大学等顶尖研究机构,目前均在紧跟开展这方面的研究。

更多推荐:

《评人工智能如何走向新阶段》后记

《评人工智能如何走向新阶段》后记(再续1)

《评人工智能如何走向新阶段》后记(再续2)

《评人工智能如何走向新阶段》后记(再续3)

《评人工智能如何走向新阶段》后记(再续4)

《评人工智能如何走向新阶段》后记(再续5)

《评人工智能如何走向新阶段》后记(再续6)

《评人工智能如何走向新阶段》后记(再续7)

《评人工智能如何走向新阶段》后记(再续8)

《评人工智能如何走向新阶段》后记(再续9)

《评人工智能如何走向新阶段》后记(再续10)

《评人工智能如何走向新阶段》后记(再续11)

《评人工智能如何走向新阶段》后记(再续12)

《评人工智能如何走向新阶段》后记(再续13)

《评人工智能如何走向新阶段》后记(再续14)

《评人工智能如何走向新阶段》后记(再续15)

《评人工智能如何走向新阶段》后记(再续16)

《评人工智能如何走向新阶段》后记(再续17)

《评人工智能如何走向新阶段》后记(再续18)

《评人工智能如何走向新阶段》后记(再续19)

《评人工智能如何走向新阶段》后记(再续20)

《评人工智能如何走向新阶段》后记(再续21)

《评人工智能如何走向新阶段》后记(再续22)

《评人工智能如何走向新阶段》后记(再续23)

《评人工智能如何走向新阶段》后记(再续26)相关推荐

  1. 《评人工智能如何走向新阶段》后记(再续27)

    439,彩虹一号无人机实现人类永不落地的追求 日媒:中国亮出杀手锏 世界各国一直在研究提高飞机的续航能力 国内研制的彩虹一号无人机采用人工智能和其他高新技术,飞行高度30000米,并终于研制成功实现人 ...

  2. 《评人工智能如何走向新阶段》后记(再续25)

    415,开发近红外光激发的纳米探针,监测大脑深层活动,理解神经系统功能机制. 开发.设计电压敏感纳米探针一直是个技术难关. 群体神经元活动的在体监测是揭示神经系统功能机制的关键. 近日<美国化学 ...

  3. 《评人工智能如何走向新阶段》后记(再续21)

    346.中国抗疫十大黑科技(以人工智能为主力的黑科技) 摘自数邦客(2020.3.30发布) 负压救护车 人工智能机器人:如送餐机器人.消毒机器人.服务型机器人,及机器人呼叫等 呼吸道病毒核配检测试剂 ...

  4. 《评人工智能如何走向新阶段》后记(再续19)

    由AI科技大本营下载自视觉中国 304. 也来讨论构建模拟人类思维过程的认知计算机制,好像这个问题迄今尚未获得解决. 我们先从输入的信息类型说起:一类是语言输入(包括词.句.文本),第二类是图像输入( ...

  5. 《评人工智能如何走向新阶段》后记(再续16)

    由AI科技大本营下载自视觉中国 181.5种常见的机器学习方法. (1)线性回归linear regression: 一种流行的回归算法,从样本特征的线性组合,linear combination中学 ...

  6. 《评人工智能如何走向新阶段》后记(再续15)

    由AI科技大本营下载自视觉中国 170. 清华大学全球产业研究院和百度大学Alpha学院于2020年1月5日发表(人工智能)产业智能化白皮书讨论AI发展情况,应用TUMC模型,从技术和综合应用场景的角 ...

  7. 《评人工智能如何走向新阶段》后记(再续13)

    由AI科技大本营下载自视觉中国 161. 引自美国科技媒体TNW记者对美欧企业主管与AI专家的访谈录摘要,谈到2020年AI的八大趋势: ①人工智能将使医疗保健更准确.成本更低: ②可解释性和信托及A ...

  8. 《评人工智能如何走向新阶段》后记(再续12)

    由AI科技大本营下载自视觉中国 151. 新一代人工智能研究方向: (1)研究新一代人工智能基础理论(机理.模型和算法):(2)研发面向需求的共性技术(以神经网络和算法为核心.数据和硬件为基础.数据知 ...

  9. 《评人工智能如何走向新阶段》后记(再续10)

    本文由AI科技大本营下载自视觉中国 106.百度自研的飞桨(Paddle paddle)框架是中国自研的首个开源产业极人工智能深度学习框架,目前飞桨已累计服务150多万开发者,在定制化训练平台上企业用 ...

最新文章

  1. Java基于Swing和Netty仿QQ界面聊天小项目
  2. ES5和6的一些新特性
  3. Listener(监听器)
  4. 遥想当年年纪小,追风逐浪没烦恼
  5. impdp导入表结构和表数据_ORACLE数据库如何用datapump工具导出表结构然后导入到其它Schema下面...
  6. 工作289:父子组件传值控制弹窗关闭
  7. cloudflare 批量域名ID
  8. 消息称苹果正在启动生产iPhone SE 3
  9. (转)Oracle中通过位图索引提高查询效率
  10. filter在CSS中的效果
  11. linux下建立无线wifi------简单实用!
  12. vscode配置c++11
  13. mysql各版本jar包下载
  14. java房屋出租预约看房系统springboot ssm带房东租客
  15. Eclipse如何设置默认浏览器
  16. macbook pro 重置SMC
  17. 图像修复(Image Restoration)
  18. Cloud Foundry 峰会进入中国 全球专家与你面对面
  19. 韦东山70天驱动笔记(1)
  20. 服!造成程序员脱发的两大原因竟然是……

热门文章

  1. Microsoft Dynamics CRM server 2013 中业务规则,有点像C#的正则表达式
  2. AX2009取销售订单的税额
  3. Android:FragmentTransaction
  4. XP与Windows 7(Win7)等操作系统Ghost备份
  5. 使用jdk8新特性实现数据库性能优化
  6. 文本在计算机中的编码表示方法,计算机中数字、文字、图像、声音和视频的表示与编码...
  7. 22. datenum Matlab中的日期型数据处理函数
  8. C/C++、嵌入式开发岗笔试集锦
  9. python 列表使用
  10. 超市账单管理系统之-------登录