本文纯科普文,不涉及任何编程代码

CPU、GPU、TPU

  • 前言
  • 一、CPU和GPU的区别
    • CPU 基于低延时的设计:
    • GPU是基于大的吞吐量设计。
      • CUDA
      • cuDNN
  • 二、什么类型的程序适合在GPU上运行?
  • 三、TPU —— 为机器学习而生
  • 四、神经网络如何运算
    • CPU 如何运行
    • GPU 如何工作
    • TPU 如何工作
      • TPU 好处:成本降低至 1/5


前言

做深度学习,有感而发,总结一下CPU和GPU的区别以及介绍一下TPU!


一、CPU和GPU的区别

  • CPU (Central Processing Unit) 即中央处理器

  • GPU (Graphics Processing Unit) 即图形处理器

  CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。
  于是CPU和GPU就呈现出非常不同的架构(示意图):其中绿色的是计算单元,橙红色的是存储单元,橙黄色的是控制单元。

  GPU采用了数量众多的计算单元和超长的流水线,但只有非常简单的控制逻辑并省去了Cache。而CPU不仅被Cache占据了大量空间,而且还有有复杂的控制逻辑和诸多优化电路,相比之下“计算能力”只是CPU很小的一部分


从上图可以看出:

  • Cache, local memory: CPU > GPU
  • Threads(线程数): GPU > CPU
  • Registers: GPU > CPU 多寄存器可以支持非常多的Thread,thread需要用到register,thread数目大,register也必须得跟着很大才行。
  • SIMD Unit(单指令多数据流,以同步方式,在同一时间内执行同一条指令): GPU > CPU。

CPU 基于低延时的设计:


  CPU有强大的ALU(算术运算单元),它可以在很少的时钟周期内完成算术计算。当今的CPU可以达到64bit 双精度。执行双精度浮点源算的加法和乘法只需要1~3个时钟周期。CPU的时钟周期的频率是非常高的,达到1.532~3gigahertz(千兆HZ, 10的9次方)。
  大的缓存也可以降低延时:保存很多的数据放在缓存里面,当需要访问的这些数据,只要在之前访问过的,如今直接在缓存里面取即可。
  复杂的逻辑控制单元:当程序含有多个分支的时候,它通过提供分支预测的能力来降低延时。
  数据转发:当一些指令依赖前面的指令结果时,数据转发的逻辑控制单元决定这些指令在pipeline中的位置并且尽可能快的转发一个指令的结果给后续的指令。这些动作需要很多的对比电路单元和转发电路单元。

GPU是基于大的吞吐量设计。


  GPU的特点是有很多的ALU和很少的cache。缓存的目的不是保存后面需要访问的数据的,这点和CPU不同,而是为thread提高服务的。如果有很多线程需要访问同一个相同的数据,缓存会合并这些访问,然后再去访问dram(因为需要访问的数据保存在dram中而不是cache里面),获取数据后cache会转发这个数据给对应的线程,这个时候是数据转发的角色。但是由于需要访问dram,自然会带来延时的问题。

  GPU的控制单元(左边黄色区域块)可以把多个的访问合并成少的访问。

  GPU的虽然有dram延时,却有非常多的ALU和非常多的thread. 为了平衡内存延时的问题,我们可以中充分利用多的ALU的特性达到一个非常大的吞吐量的效果。尽可能多的分配多的Threads.通常来看GPU ALU会有非常重的pipeline就是因为这样。

  所以与CPU擅长逻辑控制,串行的运算。和通用类型数据运算不同,GPU擅长的是大规模并发计算,这也正是密码破解等所需要的。所以GPU除了图像处理,也越来越多的参与到计算当中来。

  GPU的工作大部分就是这样,计算量大,但没什么技术含量,而且要重复很多很多次。就像你有个工作需要算几亿次一百以内加减乘除一样,最好的办法就是雇上几十个小学生一起算,一人算一部分,反正这些计算也没什么技术含量,纯粹体力活而已。而CPU就像老教授,积分微分都会算,就是工资高,一个老教授工资顶二十个小学生。GPU就是这样,用很多简单的计算单元去完成大量的计算任务,纯粹的人海战术。这种策略基于一个前提,就是小学生A和小学生B的工作没有什么依赖性,是互相独立的。很多涉及到大量计算的问题基本都有这种特性,比如你说的破解密码,挖矿和很多图形学的计算。这些计算可以分解为多个相同的简单小任务,每个任务就可以分给一个小学生去做。但还有一些任务涉及到“流”的问题。比如你去相亲,双方看着顺眼才能继续发展。总不能你这边还没见面呢,那边找人把证都给领了。这种比较复杂的问题都是CPU来做的。

  总而言之,CPU和GPU因为最初用来处理的任务就不同,所以设计上有不小的区别。而某些任务和GPU最初用来解决的问题比较相似,所以用GPU来算了。GPU的运算速度取决于雇了多少小学生,CPU的运算速度取决于请了多么厉害的教授。教授处理复杂任务的能力是碾压小学生的,但是对于没那么复杂的任务,还是顶不住人多。当然现在的GPU也能做一些稍微复杂的工作了,相当于升级成初中生高中生的水平。但还需要CPU来把数据喂到嘴边才能开始干活,究竟还是靠CPU来管的。

CUDA

  CUDA(Compute Unified Device Architecture),是英伟达公司推出的一种基于新的并行编程模型和指令集架构的通用计算架构,它能利用英伟达GPU的并行计算引擎,比CPU更高效的解决许多复杂计算任务。

  使用CUDA的好处就是透明。根据摩尔定律GPU的晶体管数量不断增多,硬件结构必然是不断的在发展变化,没有必要每次都为不同的硬件结构重新编码,而CUDA就是提供了一种可扩展的编程模型,使得已经写好的CUDA代码可以在任意数量核心的GPU上运行。如下图所示,只有运行时,系统才知道物理处理器的数量。

cuDNN


  NVIDIA cuDNN是用于深度神经网络的GPU加速库。它强调性能、易用性和低内存开销。NVIDIA cuDNN可以集成到更高级别的机器学习框架中,如加州大学伯克利分校的流行CAFFE软件。简单的,插入式设计可以让开发人员专注于设计和实现神经网络模型,而不是调整性能,同时还可以在GPU上实现高性能现代并行计算。

英伟达cuDNN

CuDNN支持的算法

  • 1、卷积操作、相关操作的前向和后向过程。
  • 2、pooling的前向后向过程
  • 3、softmax的前向后向过程
  • 4、激活函数的前向后向过程
    • a、ReLU
    • b、sigmoid
    • c、TANH
  • 5、Tensor转换函数,其中一个Tensor就是一个四维的向量。

Baseline Caffe与用NVIDIA Titan Z 加速cuDNN的Caffe做比较

二、什么类型的程序适合在GPU上运行?

(1)计算密集型的程序。所谓计算密集型(Compute-intensive)的程序,就是其大部分运行时间花在了寄存器运算上,寄存器的速度和处理器的速度相当,从寄存器读写数据几乎没有延时。可以做一下对比,读内存的延迟大概是几百个时钟周期;读硬盘的速度就不说了,即便是SSD, 也实在是太慢了。  
(2)易于并行的程序。GPU其实是一种SIMD(Single Instruction Multiple Data)架构, 他有成百上千个核,每一个核在同一时间最好能做同样的事情。

以上资料链接:
来源:博客园
英伟达官网提供的文档和视频


三、TPU —— 为机器学习而生

  张量处理单元(TPU)是一种定制化的 ASIC 芯片,它由谷歌从头设计,并专门用于机器学习工作负载。TPU 为谷歌的主要产品提供了计算支持,包括翻译、照片、搜索助理和 Gmail 等。Cloud TPU 将 TPU 作为可扩展的云计算资源,并为所有在 Google Cloud 上运行尖端 ML 模型的开发者与数据科学家提供计算资源。在 Google Next’18 中,TPU v2 现在已经得到用户的广泛使用,包括那些免费试用用户,而 TPU v3 目前已经发布了内部测试版。

第三代 Cloud TPU

如上为 tpudemo.com 截图,该网站 PPT 解释了 TPU 的特性与定义。在本文中,我们将关注 TPU 某些特定的属性。

四、神经网络如何运算


  在我们对比 CPU、GPU 和 TPU 之前,我们可以先了解到底机器学习或神经网络需要什么样的计算。如下所示,假设我们使用单层神经网络识别手写数字。

  如果图像为 28×28 像素的灰度图,那么它可以转化为包含 784 个元素的向量。神经元会接收所有 784 个值,并将它们与参数值(上图红线)相乘,因此才能识别为「8」。其中参数值的作用类似于用「滤波器」从数据中抽取特征,因而能计算输入图像与「8」之间的相似性:


  这是对神经网络做数据分类最基础的解释,即将数据(DATA)与对应的参数(PARAMETERS)相乘(上图两种颜色的点),并将它们加在一起(上图右侧收集计算结果)。如果我们能得到最高的预测值,那么我们会发现输入数据与对应参数非常匹配,这也就最可能是正确的答案。
  简单而言,神经网络在数据和参数之间需要执行大量的乘法和加法。我们通常会将这些乘法与加法组合为 矩阵运算 ,这在我们大学的线性代数中会提到。所以关键就是我们该如何快速执行大型矩阵运算,同时还需要更小的能耗。

CPU 如何运行

  因此 CPU 如何来执行这样的大型矩阵运算任务呢?一般 CPU 是基于冯诺依曼架构的通用处理器,这意味着 CPU 与软件和内存的运行方式如下:

  CPU 如何运行:该动图仅展示了概念性原理,并不反映 CPU 的实际运算行为。

  CPU 最大的优势是灵活性。通过冯诺依曼架构,我们可以为数百万的不同应用加载任何软件。我们可以使用 CPU 处理文字、控制火箭引擎、执行银行交易或者使用神经网络分类图像。
  但是,由于 CPU 非常灵活,硬件无法一直了解下一个计算是什么,直到它读取了软件的下一个指令。CPU 必须在内部将每次计算的结果保存到内存中(也被称为寄存器或 L1 缓存)。内存访问成为 CPU 架构的不足,被称为冯诺依曼瓶颈。虽然神经网络的大规模运算中的每一步都是完全可预测的,每一个 CPU 的算术逻辑单元(ALU,控制乘法器和加法器的组件)都只能一个接一个地执行它们,每一次都需要访问内存,限制了总体吞吐量,并需要大量的能耗。

GPU 如何工作

  为了获得比 CPU 更高的吞吐量,GPU 使用一种简单的策略:在单个处理器中使用成千上万个 ALU。现代 GPU 通常在单个处理器中拥有 2500-5000 个 ALU,意味着你可以同时执行数千次乘法和加法运算。


  GPU 如何工作:这个动画仅用于概念展示。并不反映真实处理器的实际工作方式。

  这种 GPU 架构在有大量并行化的应用中工作得很好,例如在神经网络中的矩阵乘法。实际上,相比 CPU,GPU 在深度学习的典型训练工作负载中能实现高几个数量级的吞吐量。这正是为什么 GPU 是深度学习中最受欢迎的处理器架构。
  但是,GPU 仍然是一种通用的处理器,必须支持几百万种不同的应用和软件。这又把我们带回到了基础的问题,冯诺依曼瓶颈。在每次几千个 ALU 的计算中,GPU 都需要访问寄存器或共享内存来读取和保存中间计算结果。因为 GPU 在其 ALU 上执行更多的并行计算,它也会成比例地耗费更多的能量来访问内存,同时也因为复杂的线路而增加 GPU 的物理空间占用。

TPU 如何工作

  当谷歌设计 TPU 的时候,我们构建了一种领域特定的架构。这意味着,我们没有设计一种通用的处理器,而是专用于神经网络工作负载的矩阵处理器。TPU 不能运行文本处理软件、控制火箭引擎或执行银行业务,但它们可以为神经网络处理大量的乘法和加法运算,同时 TPU 的速度非常快、能耗非常小且物理空间占用也更小。
  其主要助因是对冯诺依曼瓶颈的大幅度简化。因为该处理器的主要任务是矩阵处理,TPU 的硬件设计者知道该运算过程的每个步骤。因此他们放置了成千上万的乘法器和加法器并将它们直接连接起来,以构建那些运算符的物理矩阵。这被称作脉动阵列(Systolic Array)架构。在 Cloud TPU v2 的例子中,有两个 128X128 的脉动阵列,在单个处理器中集成了 32768 个 ALU 的 16 位浮点值。

  我们来看看一个脉动阵列如何执行神经网络计算。首先,TPU 从内存加载参数到乘法器和加法器的矩阵中

  然后,TPU 从内存加载数据。当每个乘法被执行后,其结果将被传递到下一个乘法器,同时执行加法。因此结果将是所有数据和参数乘积的和。在大量计算和数据传递的整个过程中,不需要执行任何的内存访问。

  这就是为什么 TPU 可以在神经网络运算上达到高计算吞吐量,同时能耗和物理空间都很小。

TPU 好处:成本降低至 1/5

  使用 TPU 架构的好处就是:降低成本。

  斯坦福大学发布了深度学习和推理的基准套装 DAWNBench。你可以在上面找到不同的任务、模型、计算平台以及各自的基准结果的组合。

DAWNBench

TPU原文链接:https://cloud.google.com/blog/products/ai-machine-learning/what-makes-tpus-fine-tuned-for-deep-learning

CPU、GPU、TPU是个啥?相关推荐

  1. CPU/GPU/TPU/NPU...XPU都是什么意思?

    CPU/GPU/TPU/NPU-XPU都是什么意思? 现在这年代,技术日新月异,物联网.人工智能.深度学习等概念遍地开花,各类芯片名词GPU, TPU, NPU,DPU层出不穷-都是什么鬼?与CPU又 ...

  2. [转]CPU/GPU/TPU/NPU...XPU都是什么鬼

    目录 CPU GPU TPU NPU BPU DPU 其他 XPU 现在这年代,技术日新月异,物联网.人工智能.深度学习等概念遍地开花,各类芯片名词GPU, TPU, NPU,DPU层出不穷..... ...

  3. 嵌入式算法移植优化学习笔记5——CPU,GPU,TPU,NPU都是什么

    嵌入式算法移植优化学习笔记5--CPU,GPU,TPU,NPU都是什么 一.什么是CPU? 二.什么是GPU? 三.什么是NPU? 四.什么是TPU? 附: 随着AI的广泛应用,深度学习已成为当前AI ...

  4. (转)CPU/GPU/TPU/NPU傻傻分不清楚

    刚开始接触深度学习概念时,基本大多数时候也就提到GPU,也基本是用GPU来进行深度学习算法训练或部署人脸识别系统的. 近几年,随着人工智能(尤其是人脸识别)的爆炸式发展,诞生了许多新的东西,其中这芯片 ...

  5. CPU/GPU/TPU/NPU...XPU都是什么鬼

    目录 CPU GPU TPU NPU BPU DPU 其他 XPU 现在这年代,技术日新月异,物联网.人工智能.深度学习等概念遍地开花,各类芯片名词GPU, TPU, NPU,DPU层出不穷..... ...

  6. 通俗易懂告诉你CPU/GPU/TPU/NPU...都是什么意思?

    前言: 现在这年代,技术日新月异,物联网.人工智能.深度学习等概念遍地开花,各类芯片名词GPU, TPU, NPU,DPU层出不穷-它们都是什么鬼?与CPU又是什么关系? 一.CPU CPU( Cen ...

  7. 通俗易懂的讲解CPU/GPU/TPU/NPU/XPU/…

    现在这年代,技术日新月异,物联网.人工智能.深度学习等概念遍地开花,各类芯片名词GPU, TPU, NPU,DPU层出不穷......它们都是什么鬼?与CPU又是什么关系?搞不懂这些知识,买手机的时候 ...

  8. 通俗易懂告诉你CPU/GPU/TPU/NPU...XPU都是些什么鬼?

    作者:iot101君 物联网智库 原创 转载请注明来源和出处 现在这年代,技术日新月异,物联网.人工智能.深度学习等概念遍地开花,各类芯片名词GPU, TPU, NPU,DPU层出不穷......它们 ...

  9. 通俗易懂告诉你CPU/GPU/TPU/NPU...XPU都是些什么鬼

    现在这年代,技术日新月异,物联网.人工智能.深度学习等概念遍地开花,各类芯片名词GPU, TPU, NPU,DPU层出不穷......它们都是什么鬼?与CPU又是什么关系?搞不懂这些知识,买手机的时候 ...

  10. [转] CPU GPU TPU

    Google I/O是由Google举行的网络开发者年会,讨论的焦点是用Google和开放网络技术开发网络应用.这个年会自2008年开始举办,到今年已经是举办的第9届了. 在今年的年会上,Google ...

最新文章

  1. pku1182(食物链) hdu3047 Zjnu Stadium
  2. python构建网站flask_30分钟搭建Python的Flask框架并在上面编写第一个应用
  3. 安装SeleniumPhantomJS
  4. java小程序设计一个国旗点击国旗唱国歌,看这篇足矣了!
  5. 20191107每日一句
  6. 联想无线网卡 linux驱动,联想R7000 Ubuntu无线网卡驱动
  7. 发起成立“ABCD联盟”,人工智能与区块链技术研讨会北京站精彩回顾
  8. android设置字体大小,Android中如何设置字体大小
  9. UI自动化测试实战--- app订单、web发货(9)
  10. Android Studio中ListView通过自定义Adapter显示数据3-1
  11. phpcms v9给栏目添加自定义英文栏目名称字段图文教程
  12. 服务器安装esxi系统
  13. 如何在Excel中的每个打印页面上重复特定的行或列
  14. zblog插件 php,ZBlogSEO插件
  15. 1032 挖掘机技术哪家强 Python实现
  16. 300M无线路由器 TL-WR842N - TP-LINK官方网站
  17. yuv,ycbcr,ypbpr,yiq itu-r bt.656 itu-r bt.601
  18. 视频翻译成文字的软件有哪些?推荐几个软件给你
  19. Linux —— 多线程
  20. 极光数据埋点不成功情况之一记录

热门文章

  1. java进程通信方式_Java进程间通信方式
  2. 用Keras搞一个阅读理解机器人
  3. [编程神域 C语言浮游塔 第④期] 函数的基本知识
  4. python隐式类型转换_python隐式转换_Python | 数据类型的转换 显式转换 隐式转换
  5. 花旗整合全球财富管理业务
  6. 图解法求最优解的例题_用图解法求线性规划最优解
  7. 计算机四级考试笔记(专门应付考试)
  8. SQL语句什么是左连接、右连接、内连接?
  9. java环境变量批处理_使用批处理编写一键发送Java环境变量教程
  10. c++拷贝构造函数(深拷贝,浅拷贝)详解