ai技术与能源行业

How energy-intensive is the AI infrastructure today? And what does that mean for the future of discipline?

如今的AI基础架构有多耗能? 这对学科的未来意味着什么?

Rick leads AI business development for M12, Microsoft’s venture fund. He works at the intersection of AI algorithms, hardware computing efficiency, and novel AI use cases. During his time with Qualcomm’s AI Research, he worked with the team that launched Qualcomm’s AI Engine into over 100 different models of AI-enabled mobile phones.
瑞克(Rick)领导Microsoft风险基金M12的AI业务开发。 他从事AI算法,硬件计算效率和新颖的AI用例的交叉研究。 在高通公司的AI研究期间,他与团队合作,将高通公司的AI引擎引入了100多种不同型号的支持AI的手机中。

Today’s AI algorithms, software and hardware combined are 10X to 100X more energy-intensive than they should be. In light of Microsoft’s recent announcement of its carbon negative commitment, my challenge to the industry is clear: let’s improve AI hardware and software so that we don’t overheat our planet.

如今的AI算法,软件和硬件相结合,比它们应消耗的能源消耗高出10到100倍。 鉴于微软最近宣布了其对碳减排的承诺 ,我对行业的挑战显而易见:让我们改进AI硬件和软件,以免我们的星球过热。

The computing industry is always optimizing for speed and innovation, but not necessarily considering the lifetime energy cost of that speed. I saw an inflection point around 2012 when the progression of AI hardware and algorithmic capabilities began to deviate from Moore’s law. Prior to that, most AI solutions were running on one, maybe two processors with workloads tracking to Moore’s law. A steady progression of workloads from the Perceptron in 1958 to systems like Bidirectional LSTM neural networks for speech recognition in the mid-2000s.

计算行业始终在针对速度和创新进行优化,但不一定要考虑该速度的生命周期能源成本。 我在2012年左右看到了一个转折点,当时AI硬件和算法功能的发展开始偏离摩尔定律。 在此之前,大多数AI解决方案都在一个(可能是两个)处理器上运行,其工作负载可跟踪摩尔定律。 从1958年的感知器到2000年代中期用于语音识别的双向LSTM神经网络等系统,工作量一直在稳步增长。

Training AI models with multiple GPUs changed everything. After Alex Krizhevsky and team designed the AlexNet model with two GPUs in 2012, the computing power and electrical energy involved in training AI models took off at an entirely different pace: over 100X compounding every two years. Theirs was certainly not the first Convolutional Neural Network (CNN), but their “SuperVision” entry swept the field, winning the 2012 ImageNet competition by a huge margin. The next year nearly all competitors used CNNs and trained with multiple processors!

用多个GPU训练AI模型改变了一切。 Alex Krizhevsky及其团队在2012年设计了带有两个GPU的AlexNet模型之后,用于训练AI模型的计算能力和电能以完全不同的速度发展:每两年复合增长100倍以上。 他们的肯定不是第一个卷积神经网络(CNN),但是他们的“ SuperVision”入门席卷了整个领域,在2012年ImageNet竞赛中大获全胜。 第二年,几乎所有竞争对手都使用了CNN,并接受了多处理器的培训!

Fast forward to 2019, and quickly developing innovative neural networks for Natural Language Processing may require hundreds or thousands of distributed GPUs — like self-attention encoder-decoder models that employ Neural Architecture Search (NAS) methods. According to a recent University of Massachusetts Amherst study, the amount of CO2 emitted from energy generation plants to power the computation involved in creating a new state-of-the-art AI model, was the equivalent of five automobile lifetime’s worth of CO2 emissions. If that’s what it takes to train only one new AI model, you can see that it is just not compatible with prioritization of sustainability.

快进到2019年,快速开发用于自然语言处理的创新神经网络可能需要成百上千个分布式GPU,例如采用神经体系结构搜索(NAS)方法的自注意编码器-解码器模型。 根据马萨诸塞州大学阿默斯特分校最近的一项研究,能源工厂排放的二氧化碳量可为创建新的先进AI模型所需的计算提供动力,相当于汽车生命周期内的5吨二氧化碳排放量。 如果仅是训练一种新的AI模型而已,那么您会发现它与可持续性优先级不兼容。

I believe we can incentivize the AI industry to make a change in the overall lifetime energy budget for AI workloads, and identify startups that are already committed to this cause.

我相信我们可以激励AI行业改变AI工作负载的整个生命周期能源预算,并确定已经致力于这一事业的初创公司。

Where do you see the biggest opportunities for the highest impact energy savings?

您在哪里看到最大的节能影响最大的机会?

My colleagues and I think it’s joint optimization of three things: energy-efficient AI hardware, co-designed efficient AI algorithms and AI-aware computer networks.

我和我的同事认为这是对三件事的共同优化:高能效AI硬件,共同设计的高效AI算法和支持AI的计算机网络。

The challenge is that the energy consumption of AI models is likely the last thing an AI algorithm developer is thinking about (unless they’re focused on mobile phones). Usually the early optimizations are foremost around performance. AI engineers often think: “what’s my peak accuracy” and “how fast can I train the model” — both of which need faster computing and more energy.

挑战在于,AI模型的能耗可能是AI算法开发人员正在考虑的最后一件事(除非它们专注于手机)。 通常,早期的优化主要围绕性能。 AI工程师经常认为:“我的峰值精度是多少”和“我能训练模型的速度有多快”,这两者都需要更快的计算和更多的精力。

I support a new success metric to help incentivize the AI industry and startups to reduce energy and CO2 emissions at data center scale. We need to shift the focus to higher throughput and lower lifetime total cost of ownership of a system for given computing workloads. I stress “system” because often hardware marketing metrics forget to mention the energy cost of extra processors, memory, and networks required for an AI training system.

我支持一项新的成功指标,以帮助激励AI行业和初创企业减少数据中心规模的能源和二氧化碳排放量。 对于给定的计算工作负载,我们需要将重点转移到更高的吞吐量和更低的系统生命周期总拥有成本上。 我强调“系统”,因为通常硬件营销指标会忘记提及AI培训系统所需的额外处理器,内存和网络的能源成本。

Success Metric = Workload Throughput ÷ [ ($ Cost of System) + ($ Cost of Lifetime Energy of System) ]

成功指标=工作量吞吐量÷[((系统成本$)+(系统生命周期成本)]

Throughput measures how fast we can compute the required AI algorithms. In the phraseology of the late Harvard Business School Professor Clayton Christensen, workload throughput is the “job” that matters at the end of the day. Not peak Floating Point Operations Per Second (FLOPS) which are magical, mystical marketing numbers only loosely related to getting the computational “job” done.

吞吐量衡量我们可以多快地计算所需的AI算法。 用已故的哈佛商学院教授克莱顿·克里斯滕森(Clayton Christensen)的话说,工作量吞吐是一天中最重要的“工作”。 并非每秒浮点运算(FLOPS)的峰值,这是神奇的,神秘的营销数字,仅与完成计算“工作”紧密相关。

The denominator of this ratio is the computing hardware cost plus the lifetime energy cost of operating that hardware including cooling and any extra network and processors required.

该比率的分母是计算硬件成本加上运行该硬件的终生能源成本,包括冷却以及所需的任何额外网络和处理器。

With this new ratio, AI designers have far more degrees of freedom to optimize software, hardware and algorithms. For example, the power consumption of an AI chip itself — whether it is 50 watts or 450 watts — doesn’t matter as much. The lifetime energy consumption of many chips to deliver a certain workload throughput is what matters most. If we can maximize this success ratio, then by definition energy and CO2 emissions are reduced as well.

有了这个新的比率,AI设计师可以在更大程度上自由地优化软件,硬件和算法。 例如,AI芯片本身的功耗(无论是50瓦还是450瓦)都无关紧要。 最重要的是要交付一定的工作负载吞吐量的许多芯片的终生能耗。 如果我们可以最大程度地提高成功率,那么按照定义,能源和二氧化碳排放量也将减少。

Why change the “performance” mindset that has been the status quo for so long?

为什么要改变长期以来保持现状的“绩效”心态?

AI has an existential problem. As its models continue to get larger, more computationally complex, and more accuracy is desired to reach human performance levels, the energy required to train those models increases exponentially. At some point if things continue as they have, researchers won’t be able to get enough computers or energy to create the new AI algorithms we want.

人工智能存在一个问题。 随着其模型不断变得越来越大,计算更加复杂,并且需要更高的精度来达到人类的绩效水平,训练这些模型所需的能量成倍增加。 如果事情按原样继续进行,研究人员将无法获得足够的计算机或精力来创建我们想要的新AI算法。

I’m really worried about that potentially stalling AI innovation. Not many research labs can string together 4,000 leading-edge processors and run them for weeks. They just don’t have the resources to deploy exascale computers. So at some point — without change — we have the potential to reach a ceiling of innovation. I’d hate to see another AI winter.

我真的很担心AI创新可能会停滞不前。 没有多少研究实验室可以将4,000个领先的处理器组合在一起并运行数周。 他们只是没有资源来部署百亿亿次计算机。 因此,在某个时刻(无需更改),我们有可能达到创新的上限。 我不想看到另一个AI冬季。

If our AI industry innovates around the success metric, then we will benefit from AI that is more compatible with sustainability, yet meets performance goals with lower lifetime energy hardware, more efficient AI algorithms and lower energy infrastructure. +

如果我们的AI行业围绕成功指标进行创新,那么我们将受益于与可持续性更兼容的AI,同时通过降低使用寿命的能源硬件,更高效的AI算法和更低的能源基础架构来满足性能目标。 +

翻译自: https://medium.com/@the_engine/the-new-equation-for-ultimate-ai-energy-efficiency-119eccafb38c

ai技术与能源行业


http://www.taodudu.cc/news/show-4448658.html

相关文章:

  • flex 仿QQ
  • 【高级Java开发】类QQ聊天工具的设计与实现(代码已上传)
  • 基于JAVA的TCP网络QQ聊天工具系统
  • 孝经白话:广要道章第十二
  • 二十四孝图(精美)
  • 2020-12-16 今日学习 StringBuilder类
  • 2020-12-16 今日学习 arraycopy
  • 如何理解类与对象、继承
  • 【一行代码系列】Python 的多线程
  • 【day08~10】Java面向对象基础认识
  • 【信息检索导论】第六章 词项权重及向量空间模型
  • MLAPI的升级之路
  • Confluence 自定义html禁用Word、PDF导出权限
  • Hadoop02---HDFS基础(HDFS原理 java客户端).md
  • 为tableview添加带控件的单元格如复选框checkbox与combbox单元格
  • OpenCV进阶(8)性别和年龄识别
  • 北邮研究生《计算机网络原理》课程期末通过经验
  • 转专业菜鸡的秋招总结
  • 字节java岗位一面(凉面)
  • Linux01---Linux常用命令
  • 2020-12-16 今日学习Date类
  • GIT的简单使用
  • CSF方法_例题
  • “鱼骨图”勾勒合理ERP项目进度计划
  • 鱼刺图战略分解法在绩效管理中的应用
  • 鱼刺图
  • python root什么意思_root是什么意思?root后会有什么后果?
  • 央行数字货币研究所与农信银资金清算中心合作推进数字人民币应用
  • 偶数科技为辽宁农信数字化进程添加新动能
  • 老杨说运维 | 农信行业运维数字化和智能化转型实践分享

ai技术与能源行业_最终AI能源效率的新方程式相关推荐

  1. 架构师实践日 · 6.30 杭州站 | 视觉 AI 技术如何助力行业提升?来西子湖畔与业内大咖面对面交流!

    伴随内容形式的变迁(文字 → 图片 → 视频),目前视觉 AI 技术不仅被应用到传统领域的升级革新中,还作为最重要的基础人工智能技术渗透到前沿技术的创新研究中. 七牛架构师实践日第二十九期将以视觉 A ...

  2. 转写准确率95%,搜狗开放AI技术实现录音笔行业进化

    8月28日,搜狗在京举行了"全新「声」态  AI未来"搜狗听写服务开放暨AI创新联盟成立发布会.会上,搜狗宣布将面向录音笔行业开放自身听写服务,并与爱国者.纽曼.索尼录音笔.万城集 ...

  3. ai人工智能课程百度云_云AI就像核电

    ai人工智能课程百度云 在最近的一次演讲中,谷歌和Alphabet首席执行官Sundar Pichai呼吁在AI领域制定新的法规,重点显然是AI已被云计算商品化. 鉴于我们正在辩论围绕AI技术使用的道 ...

  4. ai人工智能将替代人类_教AI学习人类如何有效计划

    ai人工智能将替代人类 Human planning is hierarchical. Whether planning something simple like cooking dinner or ...

  5. ai人工智能的数据服务_从AI数据集中消除无意识的偏见

    ai人工智能的数据服务 当人工智能的失败犯下愚蠢的错误(如这张愚蠢的照片)时,通常会引起很多笑声. 但是,"问题在于机器学习失常并不总是很有趣--当用于训练这些机器学习算法的数据集不够多样化 ...

  6. ai的预览模式切换_当AI频繁切换色彩预览模式时 颜色会越变越深 求解?

    当然会如此!因为这中间经历了一个三分色(四分色)的算法过程,所以当你转换的次数越多,他们的颜色畸变就越严重. AI中提供的RGB和CMYK的切换模式,目的是为了提供一个RGB转换CMYK的接口,而不是 ...

  7. ai的布尔运算在哪_在AI中如何进行布尔运算

    1.本节课主要内容[如图所示]. 2.[如图所示]两个图形的路径相加,就是我们所说的[联集]. 3.[如图所示]如果两个图形有重叠的时候呢,路径相减也就是减去上一层的图像路径,就是[减去顶层]. 4. ...

  8. ai外呼营销系统_上海AI外呼系统

    慧营销 软件名称企蜂云 这么多年来,慧营销一直在云计算.大数据.人工智能.物联网及通讯等技术方面的不断探索和产品布局,在响应建设数字中国的政策号召的同时,紧紧抓住经济全球化和信息技术革命的历史机遇,赋 ...

  9. Halliburton首席数据科学家兼技术研究员谈能源行业AI应用现状

    能源行业属于高技术驱动性行业.由于需要在严苛的条件下处理大型设备中的各类自然资源数据,石油与天然气行业长期使用数据及分析技术提高流程效率.近年来,能源行业企业开始加大对各类AI这既的应用,通过多种方式 ...

最新文章

  1. 使用Java监控工具出现 Can't attach to the process
  2. 20分钟学会mysql_5分钟学会mysql基本操作
  3. 为什么不可以使用哈曼顿距离_哈曼卡顿音乐琉璃1代2代评测,不但抓耳,还让你视线也难离开...
  4. mockito_Mockito – JAXB的RETURNS_DEEP_STUBS
  5. UA MATH565C 随机微分方程V 算子半群理论简介
  6. HDU 4930 Fighting the Landlords(扯淡模拟题)
  7. 电商迅猛发展是利大于弊,还是弊大于利?
  8. SPSS数据分析流程
  9. Unity Editor编辑器实用扩展
  10. Android以太网架构源码
  11. Yolov4-tiny pth转onnx转tensorrt
  12. 软件测试这个行业能干到多少岁?
  13. Linux驱动——ALSA
  14. Stripe 2 (前缀和计数)
  15. 全触屏智能之战 三星i908E对比iPhone 3G
  16. Kid的某些跳刺套路
  17. 红旗linux添加usb无线网卡,红旗6.0 怎么安装无线网卡驱动(急)
  18. ckeditor 4 上传和插入图片
  19. ARM硬件接口及总线介绍
  20. 基于java的爬虫框架webmagic基本使用

热门文章

  1. AI遮天传 ML-集成学习
  2. 迅速提高产品用户体验、交互、界面设计的几个绝妙方法
  3. 六年级上册计算机知识点总结,六年级数学上册知识点的整理
  4. python金融分析小知识(19)——NLP初探之LDA话题建模
  5. Luogu 1315 【NOIP2011】观光公交 (贪心)
  6. CUDA C编程(笔记)——CUDA的异构并行计算
  7. 甘肃非税收缴实现“一网通办”:随时随地扫码“搞定”
  8. 做成功的CIO从反省自己开始
  9. C++后端开发知识点总结
  10. leetCode简单算法之排排坐,分糖果