来源:搜狐,以上文章观点仅代表文章作者,仅供参考,以抛砖引玉!

“深度学习所需的大规模样本数据对于算力产生巨大需求,但近日美国麻省理工学院等研究机构的报告显示,深度学习正在逼近算力极限,而提升算力所需的硬件、成本和对于环境的影响正变得越来越难以承受……”

美国麻省理工学院、安德伍德国际学院和巴西利亚大学的研究人员在最近的一项研究中发现,深度学习的进步强烈地依赖于计算的增长。其结论显示,训练模型的进步取决于算力的大幅提高,具体来说,计算能力提高10倍相当于3年的算法改进成果。大量数据和算力是促进人工智能发展的重要因素,但是研究人员认为,深度学习正在逼近算力极限。换言之,算力提高的背后,其实现目标所隐含的计算需求——硬件、环境和金钱等成本将变得无法承受。

研究人员表示,深度学习急需革命性的算法才能让AI更有效地学习,并越来越像人类。那么,为何深度学习算法十分依赖算力的增长,现在算力的极限在哪里,如何突破?除了算力,深度学习还能否依靠其他方式改进算法性能?革命性算法的标准是什么?

大规模样本数据催生计算需求

“深度学习本质上是基于统计的科学,所以大规模的样本数据对于深度学习的效果至关重要。更大规模和更复杂的神经网络模型已经被证明非常有效,并在产品中有广泛的使用,同时这也让深度学习对计算能力有着更大要求和消耗。”远望智库AI事业部部长、图灵机器人首席战略官谭茗洲表示。

人工智能设计之初,并没有考虑节能原则,只要有足够的算力和电力,算法就可以一直跑下去。

2019年6月,美国马萨诸塞州大学阿默斯特分校的一份报告显示,训练和搜索某种模型所需的电量涉及约626000磅二氧化碳排放量,这相当于美国普通汽车使用寿命内排放量的近5倍。此外,优越的灵活性使深度学习可以很好地建立不同的模型,超越专家的模型,但也带来昂贵的算力成本。深度学习需要的硬件负担和计算次数,背后消耗的是巨额资金。

一份业内报告显示,华盛顿大学的Grover假新闻检测模型两周内培训费用约为25000美元。另据报道,著名人工智能非营利组织OpenAI花费高达1200万美元训练其GPT-3语言模型,而GPT-2语言模型,每小时训练花费则达到256美元。

改进算法降低对计算平台要求

实际上,算力一直在提高。OpenAI一项研究表明,自2012年以来,每16个月将AI模型训练到ImageNet(一个用于视觉对象识别软件研究的大型可视化数据库)图像分类中,相同性能模型所需的计算量就减少了一半;谷歌的Transformer架构超越了其之前开发的seq2架构,计算量减少了61倍;DeepMind的AlphaZero与该系统的前身AlphaGoZero的改进版本相匹配,其计算量也减少了8倍。

有网友提出,现在的硬件算力提升有些误区,不一定非得在单位面积上堆更多的晶体管,我们需要更好的框架来支持底层计算条件及相应的硬件改进。理想情况下,用消费级的GPU就能运行很多深度模型。

“人们对深度学习的性能或结果的要求越来越高,随之对于算力的需求也越来越大。要让算力增长或突破,从算法层面,首先可以优化并行计算,有效利用多机多核的计算能力,灵活满足各种需求。同时,相对于传统的基于单机编写的程序,如果改写为多机多核的并行程序,能够充分利用其CPU和GPU(或AI芯片)的资源,将使运行效率大幅度提升。”西安电子科技大学电子工程学院教授吴家骥表示。

除了算力,深度学习本身还可通过哪些方式改进算法?吴家骥介绍,深度学习都是在异构硬件上运行,大数据进入时,需要分流处理,从算法上来看,可以调度优化,让异构架构(CPU、GPU、AI芯片)因地制宜地调度深度学习和大数据处理业务。

吴家骥指出,未来可能很长一段时间内,对深度算法的改进,不仅要从架构、硬件上考虑,还要考虑模型的压缩能力。例如,就具体问题而言,考虑如何把大象关进冰箱,但问题是冰箱关不了大象,但若把大象压缩成小猫小狗的大小,就可装入冰箱。这就需要模型压缩,在保证精度的前提下,压缩神经网络模型,降低对计算平台的要求,大大提高计算效率,满足更多的实际场景需求。

研究人员认为,在算法水平上进行深度学习改进已有先例。例如谷歌的张量处理单元,现场可编程门阵列和专用集成电路,并试图通过网络压缩和加速技术来降低计算复杂性。他们还引用了神经体系结构搜索和元学习,查找在一类问题上保持良好性能的体系结构,以此作为计算上有效改进算法的途径。

算力增长未必会让AI拥有类人智力

无疑,算法突破的目的是让机器更像人类大脑一样具有神经元的功能。但就功耗而言,大脑要像超级计算机那样运算,自身温度就会飙升上百摄氏度,所以若简单认为更多的计算能力就可让人工智能拥有人类智能的想法显然是存在争议的。

“人类的智能中基因与常识是机器所不具备的,其中基因是不需要计算的,常识是可以通过简单计算实现的。”谭茗洲指出。

“常识决定了基本能力、发现力和创造力,而具有常识能力,是更先进意义上的人工智能。革命性的算法,就是要让AI具备拥有学习常识的能力,这也是未来一个很有潜力的研究方向。”吴家骥说。

有人说,深度学习大多数是“炼金术”,大多数算法是对经验更朴实的归纳,对说的问题进行更精辟的演绎。谭茗洲说:“现在数据非常多,算力也在增强,人们依赖深度学习提升AI智力,但‘傻学硬练’形成更强的学习方法,很难达到或超越人类的算力及智力。”

那么,革命性算法的标准是什么,为什么优于深度学习的算法迟迟没出现?

谭茗洲认为,革命算法的标准首先是在不同场景具有高适应度,可以形成知识记忆和经验记忆的算法,并且低耗能低成本。未来革命性算法有可能基于三点提升,一是基于常识推理。由于我们面对的大量场景不是通过大量数据训练而来,人类大脑面对这些场景往往是通过常识推理运算而得出结论,而深度学习并没有建立这套体系。另外,常识和常识之间的关联性,加速了人类对结果的推理速度。二是基于负性小样本的学习。在深度学习模型中,往往很少去学习什么是错误的,而汲取负面行为及教训性质类型的小样本是有学习意义的。三是基于交流、沟通的学习,人与人交流在学习中分几个层次,看、听、模仿等,AI也应多从这几个方面入手,建立以交通、沟通为目的的学习,而不是单单通过大数据训练模仿人类智能。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

防止被算力“锁死”,人工智能进化急需革命性算法相关推荐

  1. 华为云总裁郑叶来:易获取、用得起、方便用的算力是人工智能发展的关键

    华为云总裁郑叶来:易获取.用得起.方便用的算力是人工智能发展的关键 https://www.cnblogs.com/DicksonJYL/p/9698833.html 这是一个变革的时代,我们见证了人 ...

  2. P5 周志华:“数据、算法、算力”,人工智能三要素在未来还要加上“知识”

    周志华:"数据.算法.算力",人工智能三要素在未来还要加上"知识" 算法在获得了大量数据和算力的情况下,可能会爆发出极大的威力,但这需要高昂的成本,周志华教授认 ...

  3. Interview:人工智能岗位面试—人工智能职位之计算机视觉算法工程师的简介、知识结构、发展方向之详细攻略

    Interview:人工智能岗位面试-人工智能职位之计算机视觉算法工程师的简介.知识结构.发展方向之详细攻略 目录 计算机视觉算法工程师的简介 计算机视觉算法工程师的知识结构 计算机视觉算法工程师的发 ...

  4. 蜜蜂CNN模糊进化深度学习算法

    蜜蜂CNN模糊进化深度学习算法(人脸识别,智能优化算法,MATLAB源码分享) 在训练阶段之后,可以使用进化算法拟合深度学习权重和偏差. 这里,CNN用于对8个人脸类别进行分类. 在CNN训练之后,创 ...

  5. 《人工智能基础》——线性回归算法推导

    @EnzoReventon <人工智能基础> <人工智能基础>--线性回归算法推导 前面我们通过讲线性回归相信大家已经理解了回归任务是做什么的,但是还不知道具体怎么做,就是说怎 ...

  6. 【人工智能】传统机器学习算法(QDU)

    转载请务必经过我的同意 [人工智能]不确定性推理(QDU) [人工智能]传统机器学习算法(QDU) [人工智能]非线性分类器(QDU) [人工智能]机器学习基础(QDU) [人工智能]深度学习(QDU ...

  7. 人工智能搜索策略:A*算法

    人工智能搜索策略:A*算法 目录 人工智能搜索策略:A*算法 A算法 1.全局择优搜索 2.局部择优搜索 A*算法 1. A*算法的可纳性 2. A*算法的最优性 3. h(n)的单调限制 A* 算法 ...

  8. AI人工智能发展的经典算法

    AI人工智能发展的经典算法 文章目录 AI人工智能发展的经典算法 前言 一.智力挑战 二.计算方面的挑战 三.人工神经网络 四.因果推理 五.迁移学习 六.元学习 七.自主学习 小结 前言 近年来,计 ...

  9. 人工智能与机器学习----SVM算法深入探究

    人工智能与机器学习----SVM算法深入探究 一.支持向量机 二.如何找到超平面 三.最大间隔分类器 四.编程练习 1.未经过标准化的原始数据点分布 2.使用多项式特征和核函数 一.支持向量机 支持向 ...

最新文章

  1. 转 前端工程师凭什么这么值钱?
  2. asp.net mvc 3 unobtrusive client side validation not working in IE
  3. P1155 双栈排序(二分图染色)
  4. 慕课网初识python_初识Python笔记
  5. spring-cloud-sleuth+zipkin追踪服务实现(一)
  6. 深入理解STM32内存管理
  7. AspNet2.0页面生命周期
  8. ElasticSearch docker安装
  9. mysql 同一天多条记录只取第一条_MySQL面试高频100问(二)
  10. 转:[kipmi0]进程导致系统负载高
  11. charles 代理手机连不上网_「技巧」不想接电话?这样可以让手机变成空号,还不影响上网...
  12. 韩犯罪团伙雇朝鲜***从中国发动***
  13. GP数据库锁表如何解锁
  14. 在线免费学习java资源推荐
  15. TLF(TextFlow) 总结-FLEX
  16. matinee和matin区别_【近义词辨析】An和Année, Jour和Journée如何区别
  17. 16 岁少年前往腾讯总部要求解封 QQ 账号;微软发内部信辟谣:没有关闭微软苏州的相关计划;Go 1.20 发布|极客头条
  18. Tensorflow的基本概念与常用函数
  19. mysql 数据库中将中文转化为拼音
  20. mpx-小程序开发框架

热门文章

  1. DeepMind发69页长文掀开AlphaZero的黑盒:神经网络学到的知识和人类基本相似!
  2. 赠票 | 互联网大厂的数据治理与资产管理实战 | DAMS 2020
  3. NLP技术在海外金融机构的应用
  4. 谷歌提出新型卷积网络EfficientNet:推理速度提升5.1倍,参数减少88%(附论文代码)...
  5. 剑指offer: 二进制中1的个数 python 实现
  6. 集合啦,NLP数据增强技术!超全资源汇总
  7. 31岁成为博导!从小乡村走出的985高校教授坦言:读书这条路最简单...
  8. 博士后小姐姐把“二次元老婆生成器”升级了:这一次可以指定画风
  9. 100多个Jupyter精选资源合集!GitHub高赞,包括项目、库、教程等11个方面
  10. SAP RETAIL 初阶之WA52 Allocation Rule List