整理 | AI科技大本营(ID:rgznai100)

8 月,清华大学教授、类脑计算研究中心主任施路平率队研发的关于“天机芯”的论文登上《Nature》封面,这实现了中国在芯片和人工智能两大领域登上该杂志论文零的突破,引发国内外业界一片轰动。

“天机芯”是一款新型人工智能芯片,采用28纳米工艺制成,整个芯片尺寸为3.8 X 3.8mm2,由156个计算单元(Fcore)组成,包含约40000个神经元和1000万个突触。它能够把人工通用智能的两个主要研究方向,即基于计算机科学和基于神经科学这两种方法集成到一个平台,可以同时支持机器学习算法和现有类脑计算算法。

他们还成功将“天机芯”应用到了无人驾驶自行车中,实现了实时视觉目标探测、目标追踪、自动过障和避障、自适应姿态控制、语音理解控制、自主决策等功能,使其能够根据指令拐弯、加速,还会自动绕开障碍物、跟着主人跑。

在近日举办的2019 腾讯科学 WE 大会上,施路平详细介绍了他们做“天机芯”的来龙去脉。他们希望构建出类脑计算系统,从而发展人工通用智能。他指出,人工通用智能的研究不同于把很多人工智能简单的叠加在一起,而是要把脑的弹性和计算机的刚性结合起来,把数据驱动和知识驱动结合起来,把通用知识和推理结合起来。

在他看来,我们必须向脑学习,借鉴脑科学的基本原理,改造现在的计算机系统,而发展类脑计算是发展人工通用智能的基石。

以下为施路平演讲内容实录,AI科技大本营(ID:rgznai100)整理:

类脑计算是借鉴脑科学的基本原理,面向人工通用智能,基于神经形态工程发展的新的计算技术。为什么我们要发展这样一个技术?

大家知道,现在我们生活在一个数码宇宙,万事万物随时随地联系起来,构成一个万物互联的数码宇宙。这个宇宙成长非常快,信息每两年翻一番,整个宇宙迅速地膨胀,而且从来不退步,这样一个宇宙是基于我们现在的计算机架构,而计算机架构又基于冯·诺依曼架构。

冯·诺依曼架构是我个人认为人类发展史上最简洁、漂亮、对我们影响最大的一个架构,特点是计算和存储分离,计算、存储通过总线来回调度。

大家可以设想一下,来回的调度耗费了很多能量、耽误时间、造成了堵塞,导致有了带宽瓶颈。

所以,计算机领域最高的图灵奖 2017 年的两个得主 Hennessy 和 Patterson,最近写了一个长文,结论是未来的 10 年是计算架构发展的黄金 10 年。因为,过去是用计算机做计算,现在我们用它处理信息,而我们的数码宇宙每两年翻一番,能耗受不了。

当然,还有其它原因,就是我们现在生活在一个人工智能时代,人工智能取得了非常大的成绩,但是我们发现尽管可以用 AlphaGo 战胜世界冠军,但仍然有很多瓶颈,简单来说我们必须满足 5 个条件。

  • 充足的数据

  • 确定性的问题

  • 完备的知识

  • 静态

  • 单一系统

举个例子,如果我们让一个智能机器人从这里出去,不事先编程它是做不到的,因为人用了几年的时间建立起很多概念,在哪里、怎么出去、走门、走窗户,这些都与通用智能有关,所以结论是,我们要发展一个人工通用智能。

我们想象的人工通用智能,是在没有充足的数据甚至是假数据,很多问题也不明确,而且有很多系统交互在一起的情况下,这个系统仍然能够处理。要发展人工通用智能,我们必须向脑学习,因为整个宇宙只有脑是目前唯一的一个通用智能体,我们把脑和电脑做一个比较,会发现电脑强的、人不强,电脑不强的、人强。

我们看过《最强大脑》,那些让人叹为观止的、非常让我们羡慕的选手的能力,其实对于计算机来讲是小儿科。我们发现人脑和电脑两个系统虽然原理不同,但实际上是互补的。

所以,借鉴脑科学的基本原理,改造现在的计算机系统,发展类脑计算是发展人工通用智能的一个非常重要的部分,因为前者是后者的计算基石。

发展人工通用智能不是一个新的想法,如果我们看一下过去图灵、冯·诺依曼这些大科学家早期的文章,会发现这是我们一直以来的梦想。

为什么现在是发展人工通用智能最好的时机?

因为随着精密仪器的发展,我们对脑知道的越来越多,似乎到了一个理解脑的关口,超级计算机的发展可以使我们做很好的模拟仿真,省钱、省力、省时间,大数据、云计算提供了一个像脑一样复杂的系统,和脑交相呼应,我们可以共同研究、互相促进。

另外,纳米器件已经可以使我们去发展像人脑能耗水平的神经元和突触这样的电子器件,所以现在是发展人工通用智能最好的一个时机。

发展类脑计算去支撑人工通用智能,在这里面脑起了非常大的作用,它到底起了一个什么作用?

13 年前有感于摩尔定律在二三十年后要到头,所以我开启了类脑计算的研究,当时我自认为自己做研究还不错,但忽然感到自己不会做研究了,因为没有文献,很多东西需要自己摸索,感到非常的苦恼。

有一次我去爬山,故意让自己钻进森林,走丢了,后来我就根据太阳判断方向,盯着一个方向一直走、一直走,走到高速公路上,截了一辆车。我还找了一个阴天进去了,后来我想了一个办法,一直往高爬,爬到最高的地方,盯住一个点一直走、一直走,走到高速公路,截了个车又回去了。

这两件事情让我思考,脑在这里起的是指南针作用,给我们提供的是方向感,它是唯一所知的通用智能体。

做研究我喜欢做难的,因为我觉得越难的越容易,太容易的话有很多竞争者,你很难领先,如果很难,做着做着旁边就没人了,你反而可以领先,但是有一个前提条件,就是方向必须是正确的,如果你走到错路上,大家都跑了,你是很尴尬的。

人的智能是建立在碳基上的,而在硅基上我们已经建造了现在的数码宇宙,而碳基、硅基的结构非常相近,所以我们有一个信念,碳基上能够实现的,硅基上一定能够实现。

发展类脑计算和人工通用智能真正的挑既不是科学,也不是技术,而是因为我们的学科分布,使得我们没有合适的人做这样的研究,而且脑科学和计算机科学一个探索的是自然世界,另一个更关注应用,它们有不同的文化、语言,目标也不一样,所以多学科融合尤为关键。

清华大学类脑计算研究中心由 7 个院系组成,因为这个领域不仅仅是计算机和脑科学,还有数学、物理、电子、微电子等,7 个院系的老师在一起反复讨论,每周半天的时间,我们用 7 年只做了一件事情,叫融合、融合再融合。

在这个过程当中,我们梳理了一下发展人工通用智能,现在主要是有两条路线:第一,计算机主导的;第二,脑科学主导的。计算机主导的像机器学习,它在图像识别、语音理解、自然语言处理方面取得了辉煌的成绩,但是它很难处理不确定性问题等等。

脑科学神经形态计算,发展的也很快,由于我们不理解脑的机制,极大地阻碍了它的发展,但是两跳技术路线实际上互补,把两者结合起来,是目前我们认为最好的一种方法。发展类脑科学实际上还有两条:1、基于计算机,用脑科学的基本原理来改变计算架构;2、我们用一个“类脑”这样简单又明了的词涵盖了这两个部分。

实际上,这要研究理论芯片、软件、系统,从云脑到应用。但是,大家总是问一个问题,不理解人脑,凭什么你能造出类脑计算系统来?我们思考了很久,后来得到了答案。

答案是这样的:计算机是把多维空间的信息转换成为 0、1 这样一维的信息流,用计算来解决问题,CPU 的主频越来越快,换句话说,这用的是时间复杂度,但问题是什么?当你缩维的时候,相关性丢失了,这就是人很容易确定一个物体是在真实空间里还是在镜子里,计算机则很难,这个是根本原因。

我们不知道脑的基本原理,但我们知道一个神经元连接一千到一万个神经元,换句话说我们在这里把信息扩输了,把相关性增强了,我们用的是空间复杂度。另外,我们的脑还用脉冲来编码,引进了时间因素,我们还利用了时空复杂度,所以是想保持现在的计算机所有的优点,保持时间复杂度,增加一块类脑芯片。

实际上增加的是什么呢?增加的是空间复杂度、时空复杂度。如果我们以这种观点来看现在的技术,你就发现现在的人工神经网络的加速器,是面向深度人工神经网络。

它利用的就是空间复杂度,而像脑一样工作的,神经形态计算,面向的是脉冲神经网络。它利用的是时空复杂度,一个是空间复杂度,一个是时空复杂度,何不把它结合起来呢?

所以,我们想了一个办法提出了天机芯片架构,用了 3% 的代价实现了既支持人工神经网络,又支持像脑一样工作的脉冲神经网络,而且还支持这两者的异构建模。我们还利用类脑芯片,构建了一个人工通用智能的研究平台。

我们的想法是这样,构建一个可以和系统互动的多模态交叉研究平台,利用环境变化逼迫这个系统变化,当它变化的时候,我们观察应用这种变化,系统应该遵循的基本原理,从而帮助我们迭代发展,利用一块天机芯片,我们就实现感知、追踪、过障、避障、自动控制、语音理解、自主决策。

芯片很重要,软件也很重要,因为如果没有软件,应用工程师是不愿意做应用软件开发的,在实验室我们自己开发了一个软件工具链,现在实际上已经搭起了第一代的类脑计算机,我们现在做的是一个类脑云脑。

它和现在的云计算的差别是云计算是把很多技术整合起来,而类脑云脑是面向人工通用智能,因为人工通用智能的研究从基本上来讲,不同于把很多人工智能简单的叠加在一起,我们的想法是把脑的弹性和计算机的刚性结合起来,把数据驱动和知识驱动结合起来,把通用知识和推理结合起来。

当然,这是一个非常具有挑战性的长期研究,我们的策略是循序渐进,大家记住我刚才说的五个条件,我们可以设想一下,我们先专注在一个一个问题的研究上,这个可以称为是第一代,然后两个问题一起研究,这个可以称为第二代,然后第三代、第四代,最后是第五代,从而让我们构建人工通用智能。

我们发展类脑计算,支撑人工通用智能,它可以赋能各行各业,可以有很多的应用。

我们对一个智能教育特别感兴趣,因为我们教育的很多问题都可以通过这样的方式研究解决。比如说高质量的教育资源很稀少,所以造成了教育不公,社会发展从一开始就有不公平的因素,还有因材施教,我们每个人是不一样的,由于经费有限、仪器有限,我们很难做到真正的理论联系实际,还有终生学习等等。

随着类脑计算、人工通用智能的发展,这些都会逐渐解决,然后发展新的系统。但是还有一个非常重要的因素,因为教育最主要的是塑造人。

回顾一下自工业革命以来,我们发展了蒸汽机、发电机、计算机、大数据,还有现在的万物互联,我们一直在改变外部的世界,在改变我们的物质生活。看一下我们现在的世界,贸易纷争,国家、民族、人之间有很多矛盾,我们忽然发现,当我们的物质生活发展很快时,精神生活实际上没有同步发展,现在在智能时代发展类脑计算,我们有机会向内发展,审视内心。

我通常只参加学术活动,这次之所以接受腾讯邀请来做演讲,是因为他们提出了一个“科技向善”的理念,这和我们的理念是相通的。

我们衷心希望人类在发展技术、探索外界世界的同时,也能够研究一下我们的内在世界,内外兼修、共同发展,建设一个美好、和谐的世界。

(*本文为AI科技大本营原创文章,转载请微信联系 1092722531

精彩推荐

12月6-8日,深圳!2019嵌入式智能国际大会,集聚500+位主流AIoT中坚力量,100+位海内外特邀技术领袖!9场技术论坛布道,更有最新芯片和模组等新品展示!点击链接或扫码,输入本群专属购票优惠码CSDNQRSH,即可享受6.6折早鸟优惠,比原价节省1000元,学生票仅售399元

推荐阅读

率清华团队研发“天机芯”登《Nature》封面,他说类脑计算是发展人工通用智能的基石...相关推荐

  1. 重磅!中国新型类脑计算芯片首登《自然》封面

    来源: 人民日报政文"(ID: rmrbzhw) 原标题: 零的突破! 中国新型类脑计算芯片首登<自然>封面 清华大学施路平团队近日发布研究成果--类脑计算芯片"天机芯 ...

  2. l2空间的完备性_什么是“类脑计算完备性”?清华团队在Nature首次提出!

    北京时间10月14日 清华大学计算机系张悠慧团队 精仪系施路平团队与合作者 在<自然>(Nature)杂志发文 首次提出"类脑计算完备性" 以及软硬件去耦合的类脑计算系 ...

  3. Nature重磅:软硬分离、图灵完备,清华首次提出“类脑计算完备性”

    来源 | 清华大学计算机系校友会 北京时间10月14日,清华大学计算机科学与技术系(以下简称"计算机系")张悠慧团队.精密仪器系(以下简称"精仪系")施路平团队 ...

  4. 清华团队类脑计算首推「神经形态完备性」,通用人工智能要来了

    2020-10-16 14:13:46 [新智元导读]人脑,是自然界中最完美的计算系统,不仅能处理多种复杂任务还有最高的效能,是目前唯一的「通用智能体」.最近,清华联合团队提出的类脑计算系统新框架,或 ...

  5. 清华类脑计算成果再登Nature:张悠慧施路平团队出品,有望打破冯诺依曼瓶颈...

    贾浩楠 发自 凹非寺 量子位 报道 | 公众号 QbitAI 清华类脑计算研究成果,再登Nature. 新研究的关键词是:类脑计算.新计算机系统框架.通用人工智能(AGI). 它的重要性,在于有希望打 ...

  6. 清华天机AI芯片登Nature封面:全球首款异构融合类脑芯片,实现自行车无人驾驶...

    鱼羊 栗子 乾明 发自 凹非寺  量子位 报道 | 公众号 QbitAI 有一辆自行车,载着通用人工智能的希望,登上了最新一期的Nature封面. 它的大脑,是清华研发的类脑芯片"天机&qu ...

  7. 《自然》重磅:清华团队首次提出“类脑计算完备性”,智源学者张悠慧等为共同一作...

    8月初,清华大学施路平团队基于研究成果,类脑计算芯片"天机芯"第二代的论文登上<自然>(Nature)杂志封面,实现了中国人工智能领域<自然>论文零突破. ...

  8. 智源社区AI周刊No.101:DeepMind推出AlphaTensor登Nature封面;stateof.ai发布AI情况报告...

    汇聚每周AI观点.研究和各类资源,不错过真知灼见和重要资讯!欢迎扫码,关注并订阅智源社区AI周刊. 编辑精选 1. DeepMind推出AlphaTensor,利用机器学习发现新矩阵乘法,已登Natu ...

  9. 本周AI热点回顾:意念打字登Nature封面,准确率超99%;前馈网络+线性交互层=残差MLP,纯MLP图像分类架构入场...

    ‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍点击左上方蓝字关注我们 01 意念打字登Nature封面!每分钟写90个字符,准确率超99%,网友:我打的都比它慢 万万没想到,脑机接口这么快就有了重大突破!甚至还 ...

最新文章

  1. async/await 的基本实现和 .NET Core 2.1 中相关性能提升
  2. Openlayers 2.X加载高德地图
  3. 【震惊】史上最牛的市场推广/营销
  4. python第三方包是什么意思_安装Python和第三方包的方法
  5. 学习深度学习需要哪些知识_您想了解的有关深度学习的所有知识
  6. Google 向 Android 开发者支付了 800 亿美元,却仍不及苹果!
  7. 3013C语言_输入输出
  8. 【优化覆盖】基于matlab移动网格求解无线传感器网络节点覆盖优化问题【含Matlab源码 1300期】
  9. 路由器和带宽猫、AP、AC、交换机
  10. vbnet 操作autoCAD之 给出矩形如何画内切椭圆
  11. 齐治运维堡垒机后台命令执行漏洞
  12. C++基础数论—————容斥原理
  13. flink on k8s模式通过web UI界面查看任务运行情况
  14. arm oe linux gnueabi 系统,交叉编译移植openssl
  15. redis系列之哨兵模式
  16. 总结2015,展望2016
  17. 雷电模拟器导入burp证书
  18. Google Chrome Extensions 最新精彩插件推荐
  19. 为虚拟机vCPU绑定物理CPU
  20. 新个税基数来了,九月工资啥时候发合适

热门文章

  1. 如何在App中实现朋友圈功能之二快速实现用户信息的自定义——箭扣科技Arrownock...
  2. 开坑,写点Polymer 1.0 教程第3篇——组件注册与创建
  3. rails应用ajax之二:使用rails自身支持
  4. android adb root方法
  5. 十个jQuery图片画廊插件推荐
  6. 妹子在生产服务器执行了 rm -rf /*,还好有我帮她恢复了
  7. 2018-4-7 差分进化算法
  8. bzoj 3339 莫队
  9. c++运算符重载总结
  10. socket 服务器浏览器与服务器客户端实例