AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。当前,AI芯片主要分为 GPU 、FPGA 、ASIC。

这里再次推荐李铁夫老师的一篇优秀博文《为什么AI芯片是当今热点》,这里介绍的是现在最热门、最重要的技术竞争点——专用芯片

还是非常烧脑的文章,需要有一定的芯片基础,放出来跟大家一起分享学习,祝大家天天进步。

1.为什么会出现专用芯片?

我们最熟悉的芯片,像计算机里的CPU,这是一种通用芯片,过去几十年一直是通用芯片主导着行业发展,这也是Intel公司能成为行业巨头的原因。

但现在,却出现了通用芯片的竞争者——专用芯片,它们越来越重要,尤其是在人工智能的应用越来越重要,成了芯片行业的最重要竞争点之一。这是为什么呢?

要回答这个问题啊,首先就要搞清楚,通用芯片和专用芯片之间的区别,我拿两种最典型的芯片CPU和GPU来举例讲讲。

CPU你一定很熟悉,电脑里的中央处理器,它是一颗通用芯片。像浏览网页、播放mp3、播放视频、数学运算、控制计算机里其他的部件等等,这些任务都靠CPU来完成。

也就是说CPU不光要计算,还要分析指令、调取数据、控制操作,要干的事非常多,那么CPU上面的晶体管,大部分都用来做控制模块和片上缓存了,真正负责运算的单元其实特别小,也就是说CPU更像是一个中控指挥中心。

那随着任务增多,计算量加大,我们就发现CPU的缺陷越来越明显,比如用CPU做图形处理太费劲、特别慢。但我们想让计算机显示更多色彩、更高像素,怎么办呢?

很幸运,我们发现图形处理这种问题非常有特点,是一种很规整的问题,不需要太多的控制,反而需要很强的并行计算能力。所以就分化出来一颗专用芯片,这就是GPU

在GPU芯片里面,控制模块只占很小的部分,大部分的面积都放满了运算单元。GPU工作时就是一门心思不停地处理图像数据就可以了,效率比CPU高多了。

打个比方帮你理解,你可以把这个场景想象成一群人在机场排队过安检,这群人就对应了要处理的数据,安检的人员就对应了芯片中的运算单元。

CPU就好像有10队人在排着,而且大包小包的很混乱,安检口就只有两个,这就需要有好几个管理人员站在那,协调接下来轮到哪一队、哪个人去哪个安检口。而且每个人的行李数目和装的东西都不一样,有的人只有一个小包,一下子就过去了。有的人好几件行李,还需要从里面把电脑拿出来。这就需要管理人员根据进度实时地进行调配。

换句话说,CPU是一颗通用芯片,要具备解决各种各样问题的能力,所以它的控制模块非常复杂,运算能力相对比较弱。

GPU就不一样了,不是乱糟糟的队伍了,而是10队解放军战士,每个人的行李都一样,一个挎包、一个行李卷,这就是所谓的数据很规整。

你看,这时候是不是就不再需要那么多的管理人员来维持秩序了?刚才这几位管理人员就都可以去帮着做安检了,对吧?于是10队人就有了10个安检口,而且每个人的安检时间都一样,是不是效率大大提高了?

对应到芯片里,就是GPU芯片里面控制模块比较小,省下来的面积和晶体管都可以当作运算单元了,所以GPU的图形运算能力比CPU强得多。

到这里咱们小结一下,为什么会出现专用芯片呢?其实就是两个原因:

  • 第一,要解决的问题足够重要,值得花费宝贵的硬件资源去专门解决。
  • 第二,这个问题的算法要有特点,能够使用电路的办法来高效地处理。

2.为什么专用芯片崛起了?

那为什么专用芯片成了最近这些年重要的竞争点呢?这就要说到人工智能的发展。

现在我们可以用人工智能来很多事,像手机的人脸识别解锁,语音控制的智能音箱,甚至是无人操控自动驾驶的汽车等等。这些好像都是近几年出现的新事物,但人工智能其实已经有几十年的研究历史了。

为什么感觉这几年才有了大爆发呢?就是因为过去没有集齐三大要素:大数据、算法和算力

拿人脸识别来举例,1997年基于卷积神经网络的研究,仅仅有40个人400张图片的数据规模。但到了2014年,Facebook采用的深度卷积神经网络算法,搜集了4000个人400万张图片进行模型训练,取得了97.35%的准确率,已经接近人类水平。

可千万别以为单有大数据就能让人脸识别变成更成功,普通的通用芯片根本就处理不了这样海量的运算。

好比说,你要做一辆自动驾驶汽车,它要自动躲避障碍物,这就需要芯片来根据实时路况,计算躲避路线。

如果这辆车正行驶在路上,前方20米有一个障碍物,用电脑里的CPU来算要不要躲避的话,恐怕保险公司定损员都到现场了,结果还没算出来呢。

所以想要实现AI,光有AI算法还不行,还必须有AI芯片,这才有算力的保障。

我们说的AI芯片,其实全称叫“人工智能加速芯片”,它是一种专门芯片,作用就是来加速AI算法的。像刚才说人脸识别能取得成功,就是因为改用了GPU来做计算,GPU也就成了最早的AI芯片。

为什么GPU就能拿来做AI芯片呢?因为我们发现AI算法也非常有特点,虽然运算量巨大,但也有很强的规整性。

比如图像识别领域常用的卷积神经网络算法,主要的一个运算就是针对很大的矩阵进行大量的乘法操作,如果能针对这个特点来处理,自然就能提高计算速度。很巧,GPU在这一点上比CPU要强很多。

慢慢地,人们发现GPU不只能处理图像问题的加速,大多数并行计算问题都可以用GPU来解决,包括比特币挖矿

虽说跟CPU相比,GPU是一种专用芯片,可到了今天,GPU已经成了通用的并行计算芯片了。这下GPU技术就有了巨大的发展动力,被广泛地用在并行计算上,更是带动了各类AI芯片的发展。

3.AI芯片前沿

现在除了GPU,为了更好地实现人工智能,又出现了新的AI芯片,我给你介绍两个最重要的。

第一个叫FPGA,可编程逻辑阵列。

刚才说了,虽然GPU比CPU更能加速AI算法,但现在GPU也算是一种通用的并行计算芯片了。它的问题是,并没有针对每一个人工智能问题做最佳优化,功耗和价格都比较高,所以我们就想要更专用的芯片来提高效率,FPGA的出现就是为了解决这个问题。

这是一个非常聪明的发明,你可以把它看做是一颗“万能芯片”。这颗芯片做好之后,你可以根据需要,修改芯片里的器件连接形式,构成各种各样不同功能的芯片。

这个过程叫做FPGA的烧录。针对不同的人工智能问题,可以把FPGA改成相应的专用芯片,更好地适配问题。

打个比方,你可以把FPGA当作是闪送。虽然闪送是一项通用的服务,谁都可以用,但是你一旦下了的订单,这个闪送小哥,他就只服务于你了。他会在你和你的目标之间建立一条最优的路径,最快速度把东西送到。服务结束之后他才会接下一单,又针对新的用户建立新的路线。

闪送下单就对应着FPGA的编程烧录,烧录好了之后,这块FPGA就成了你的专用芯片,针对你的具体问题高效解决。完成任务之后,你还可以根据新的问题来改变电路结构,变成另一颗专用芯片,高效地完成新任务。

所以,FPGA是现在人工智能里面非常重要的一个实现形式。

FPGA在灵活性上有优势,但也有弱点,一般来说它的价格比较高,在性能上,速度、功耗还有芯片面积也还有不小的提升空间。

于是人们还想到了一个终极的方法,也是现在芯片技术里最热门、最前沿的领域,叫作ASIC定制化芯片。

也就是说根据要解决的AI问题,专门设计一颗芯片,不干其他事。

它的优势和劣势就非常明显了,优势就是非常的高效,能耗会非常的低。劣势就是完全丧失了通用性,你一旦设计制作好了这个芯片,它就干不了别的事了。如果过两天想解决其他问题,没有办法,必须再去做另外一颗芯片才行。

可是现在先进工艺的芯片设计和加工的成本是非常高的,所以定制AI芯片可不是什么公司都能做的,也就是像谷歌、阿里这种大公司,具有明确的应用场景和算法才会做这种事。

现在最著名的定制AI芯片就是Google的TPU,叫做张量处理器。根据谷歌的公开的数据,TPU比起最好的GPU来说,能有几十倍将近上百倍的性能提升,能耗也有很大的降低。

最后再补充一点,其实还有一个重要的发展趋势,就是通用AI芯片。这个通用不是说要像CPU一样解决所有计算问题,而是说希望一颗AI芯片能够在高效率、低功耗的前提下,满足低成本和通用性,解决各种AI问题,这会是未来非常有前景的方向。

完毕。

【技术好文转载】为什么AI芯片是当今热点相关推荐

  1. 清华出品:一文看尽AI芯片两类瓶颈三大趋势,存储技术开拓新疆界 | 附全文...

    12月10日-11日,由北京未来芯片技术高精尖创新中心和清华大学微电子学研究所联合主办的「第三届未来芯片论坛:可重构计算的黄金时代」在清华大学主楼举办,并正式发布了<人工智能芯片技术白皮书(20 ...

  2. 【技术好文转载】未来技术前瞻

    据最近报道称中国的芯片巨头企业紫光展锐在最近研究出了几款新的芯片产品,连高通都没有想到中国的速度会如此之快.紫光展锐这一次抢先苹果和华为一步发布了自己的6nm芯片,一举打破了美国芯片技术在全球垄断的地 ...

  3. WEB缓存技术之阿堂教程:聊聊memcached分布式缓存技术--好文转载

    转自:http://blog.sina.com.cn/s/blog_4c925dca010193sy.html 阿堂最早接触memcached技术,实际 上是在原来的一家游戏公司,因为阿堂带领项目组开 ...

  4. 清华出品:最易懂的AI芯片报告!人才技术趋势都在这里

    清华出品:最易懂的AI芯片报告!人才技术趋势都在这里 https://mp.weixin.qq.com/s/kDZFtvYYLLqJSED_0V1RZA 2010 年以来, 由于大数据产业的发展, 数 ...

  5. 一文读懂寒武纪:AI芯片拓荒者的乘风破浪

    点击上方蓝色字体,关注我们 6月24日,寒武纪科创板IPO注册生效,这家成立于2016年的初创公司,从IPO申请到过会再到正式注册批文下来,仅仅用时89天. 顶着"AI芯片独角兽" ...

  6. AI芯片的“战国时代”:计算力将会驶向何方?

    CSDN 出品的<2018-2019 中国人工智能产业路线图>V2.0 版即将重磅面世! V1.0 版发布以来,我们有幸得到了诸多读者朋友及行业专家的鼎力支持,在此表示由衷感谢.此次 V2 ...

  7. AI芯片、框架、语言与知识、量子计算……百度大脑6.0发布

    9月15日,科技界年度盛会"百度世界2020"线上开幕.今年的百度世界大会由百度与"央视新闻"联合呈现,上午刚刚结束的主论坛精彩纷呈,反响热烈,花式登上热搜:百 ...

  8. 华为、苹果、高通,谁在领跑?全面解读清华AI芯片报告

    来源:智东西 摘要:本文全面讲解人工智能芯片,系统梳理人工智能芯片的发展现状及趋势. 2010 年以来,由于大数据产业的发展,数据量呈现爆炸性增长态势,而传统的计算架构又无法支撑深度学习的大规模并行计 ...

  9. AI 芯片的简要发展历史

    随着人工智能领域不断取得突破性进展.作为实现人工智能技术的重要基石,AI芯片拥有巨大的产业价值和战略地位.作为人工智能产业链的关键环节和硬件基础,AI芯片有着极高的技术研发和创新的壁垒.从芯片发展的趋 ...

最新文章

  1. python3 文本文件内容去除重复行
  2. python keyerror(0)
  3. poj 3614 Sunscreen(优先队列+贪心)
  4. webrtc在远程助手应用的实践
  5. GB-T 16260.1-2006 软件工程 产品质量 第1部分:质量模型
  6. 深入理解 LINQ to SQL 生成的 SQL 语句
  7. SQL Server 变量名称的Collcation跟Instance还是跟当前DB?
  8. ceph rbd 封装api
  9. 我的电子产品开发资料学习资料免费下载地址(超值超值。。。)
  10. Python爬虫:数据存储——TXT文本文件
  11. 51单片机HS0038红外遥控程序
  12. 南航计算机学院考博难么,考研专硕真的不能考博吗?看看过来人是咋说的
  13. AliOS Things学习笔记(5)——ESP8266对接天猫精灵下篇(设备端)
  14. 明朝首辅/太师,辅佐明朝四代国之重臣杨士奇后世传人在松滋
  15. 2018看得见的未来:超融合六大趋势
  16. freetype的安装与使用
  17. java的clone你知道多少?
  18. nz-tree的右键菜单的实现, 以及选中状态的实现
  19. 使用ffmpeg工具进行YUV420P到RGB32的格式转换问题总结
  20. 关于错误:ERROR 2013 (HY000):

热门文章

  1. IOS开发 Block的学习
  2. 多表联合查询存储过程
  3. 限时分享:产品经理面试高频考题及答案
  4. 比解决问题更重要的,是找到正确的问题
  5. 2519485c7dcfe0295a41d4e0f69bb10a 求解
  6. 江苏省教育厅与阿里云合作变革“智慧教育”
  7. AtCoder Beginner Contest 055题解
  8. Android 使用自带的HttpClient进行https请求出现403的解决过程记录
  9. .net常見面試題(三)
  10. Java LinkedList指南