学习数据集训练时,电脑没有GPU,所以当时训练时用的是CPU,也没有意识到两者之间在训练数据集有什么差别,直到在一次训练过程中,着重看了一下训练过程,才发现,训练时间是真的差距大。

接下来就给大家讲一下,这两个具体有什么差别。

一、GPU和CPU是什么?

CPU:中央处理器(英文Central Processing Unit)是一台计算机的运算核心和控制核心。CPU、内部存储器和输入/输出设备是电子计算机三大核心部件。其功能主要是解释计算机指令以及处理计算机软件中的数据。

CPU

GPU:英文全称Graphic Processing Unit,中文翻译为“图形处理器”。一个专门的图形核心处理器。GPU是显示卡的“大脑”,决定了该显卡的档次和大部分性能,同时也是2D显示卡和3D显示卡的区别依据。2D显示芯片在处理3D图像和特效时主要依赖CPU的处理能力,称为“软加速”。3D显示芯片是将三维图像和特效处理功能集中在显示芯片内,也即所谓的“硬件加速”功能。

GPU

显卡

二、GPU与CPU有什么区别?

CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。主要区别如下。

CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。而GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。

于是CPU和GPU就呈现出非常不同的架构。

其中上图中绿色的是计算单元,橙红色的是存储单元,橙黄色的是控制单元。

GPU采用了数量众多的计算单元和超长的流水线,但只有非常简单的控制逻辑并省去了Cache。而CPU不仅被Cache占据了大量空间,而且还有有复杂的控制逻辑和诸多优化电路,相比之下计算能力只是CPU很小的一部分。

CPU 基于低延时的设计:

CPU有强大的ALU(算术运算单元),它可以在很少的时钟周期内完成算术计算。

当今的CPU可以达到64bit 双精度。执行双精度浮点源算的加法和乘法只需要1~3个时钟周期。CPU的时钟周期的频率是非常高的,达到1.532~3gigahertz(千兆HZ, 10的9次方).大的缓存也可以降低延时。保存很多的数据放在缓存里面,当需要访问的这些数据,只要在之前访问过的,如今直接在缓存里面取即可。

复杂的逻辑控制单元。当程序含有多个分支的时候,它通过提供分支预测的能力来降低延时。数据转发。 当一些指令依赖前面的指令结果时,数据转发的逻辑控制单元决定这些指令在pipeline中的位置并且尽可能快的转发一个指令的结果给后续的指令。这些动作需要很多的对比电路单元和转发电路单元。

GPU是基于大的吞吐量设计。

GPU的特点是有很多的ALU和很少的cache. 缓存的目的不是保存后面需要访问的数据的,这点和CPU不同,而是为thread提高服务的。如果有很多线程需要访问同一个相同的数据,缓存会合并这些访问,然后再去访问dram(因为需要访问的数据保存在dram中而不是cache里面),获取数据后cache会转发这个数据给对应的线程,这个时候是数据转发的角色。但是由于需要访问dram,自然会带来延时的问题。

GPU的控制单元(左边黄色区域块)可以把多个的访问合并成少的访问。

GPU的虽然有dram延时,却有非常多的ALU和非常多的thread. 为啦平衡内存延时的问题,我们可以中充分利用多的ALU的特性达到一个非常大的吞吐量的效果。尽可能多的分配多的Threads.通常来看GPU ALU会有非常重的pipeline就是因为这样。所以与CPU擅长逻辑控制,串行的运算。和通用类型数据运算不同,GPU擅长的是大规模并发计算,这也正是密码破解等所需要的。所以GPU除了图像处理,也越来越多的参与到计算当中来。

上面说的有点专业化,接下来就简单说一下,他们两个到底差在哪?

CPU(Central Processing Unit)是电脑最主要的部件,他的主要功能是解释计算机指令以及处理计算机软件中的数据,说白了就是做指挥工作,统筹各方面。CPU相当于整个电脑的心脏,而GPU相当于显卡的心脏。

普通的处理器CPU差不多双核心四线程,目前市面上最高端的桌面处理器i9-7980XE(RMB1.5万)不过十八核心三十六线程。GPU则不同,就拿普通的2000块的游戏显卡RX 480来说,RX480的GPU芯片计算单元划分为36个CU计算核心,每个CU核心又包含了64个流处理器计算核心,所以总共就是36X64=2304个流处理器计算核心。

CPU相对于GPU就像老教授和小学生,拿i9-7980XE和RX480举个例子,出一套小学数学试卷,老教授刚做一道题,两千多名学生一人一题早就交卷子了。如果套高数卷子,老教授做完学生们一道也不会做。

三、训练神经网络GPU优于CPU

很多个简单的工作,交给GPU显然更适合。

其实在早期,神经网络都是用CPU训练的。即使现在,像TensorFlow这样的流行框架也支持在CPU上运行。那么,既然CPU和GPU都可以训练神经网络,为什么一般用GPU训练神经网络?很简单,因为GPU比CPU快很多。比如,Victor Dibia(IBM研究院Research Staff Member)基于Tensorflow框架训练了一个实时检测手部的网络。

训练这样一个神经网络要花多久?CPU上大约要12天,而GPU上则是5小时。(我们这里不讨论具体的型号,关键是两者的比例。CPU和GPU的差距太大了)。

而且,实际上这个神经网络的训练时间已经通过迁移学习大大缩短了。迁移学习指直接拿训练好的图像分类的模型来用,只是重新训练最后一层或几层网络以检测手部,所以能快很多。那如果从头开始训练的话(有的时候没有现成的模型可供迁移),可能要几周甚至几个月。这还是GPU的情况。

按照上面的比例,换算成CPU,那基本上就太慢太慢,慢到不现实的程度。GPU之所以比CPU快好多,主要是因为,从运算的角度来看,神经网络主要是由大量的浮点矩阵构成的。而现代的神经网络,可能有几千到几百万的浮点矩阵(所谓深度学习),因此需要很大的内存带宽来访问这些海量的浮点矩阵。而GPU的内存带宽比CPU高很多。比如Intel的Core i9-7980XE内存带宽约为57GB/s,而NVIDIA的Tesla P100带宽高达900GB/s。

使用神经网络训练,一个最大的问题就是训练速度的问题,特别是对于深度学习而言,过多的参数会消耗很多的时间,在神经网络训练过程中,运算最多的是关于矩阵的运算,这个时候就正好用到了GPU,GPU本来是用来处理图形的,但是因为其处理矩阵计算的高效性就运用到了深度学习之中。

【深度学习小常识】CPU(中央处理器)和GPU(图像处理器)的区别相关推荐

  1. 【深度学习小常识】什么是mAP?

    目录 一.mAP相关概念 1.正例与负例 2.P(精确率) 3.R(召回率) 4.ACC(准确率) 5.AP(平均精确度) 6.示例 二.mAP 1.mAP简介 2.P-R曲线 学习深度学习,总会有各 ...

  2. 深度学习小技巧(二):如何保存和恢复scikit-learn训练的模型

    深度学习小技巧(一):如何保存和恢复TensorFlow训练的模型 在许多情况下,在使用scikit学习库的同时,你需要将预测模型保存到文件中,然后在使用它们的时候还原它们,以便重复使用以前的工作.比 ...

  3. FPGA在深度学习应用中或将取代GPU

    FPGA在深度学习应用中或将取代GPU 本文来源:AI前线 作者 | Ben Dickson 译者 | 大小非 人工智能的兴起触发了市场对 GPU 的大量需求,但 GPU 在 AI 场景中的应用面临使 ...

  4. 深度学习中,CPU、GPU、NPU、FPGA如何发挥优势?

    随着AI的广泛应用,深度学习已成为当前AI研究和运用的主流方式.面对海量数据的并行运算,AI对于算力的要求不断提升,对硬件的运算速度及功耗提出了更高的要求. 目前,除通用CPU外,作为硬件加速的GPU ...

  5. 深度学习 基础硬件CPU GPU知识笔记

    参考:李沐<动手学深度学习v2>https://www.bilibili.com/video/BV1TU4y1j7Wd 桌面GPU排名:https://www.mydrivers.com/ ...

  6. 深度学习平台、CPU和GPU使用

    首先要你了解一下CPU和GPU的区别.工作原理.及操作 然后安装tensorflow-GPU这个是为了在GPU训练网络. 这里有安装办法. 手把手教你搭建深度学习平台--避坑安装theano+CUDA ...

  7. 香侬科技Service Streamer:加速深度学习Web服务、极大提高GPU利用率。| 百万人学AI评选

    2020 无疑是特殊的一年,而 AI 在开年的这场"战疫"中表现出了惊人的力量.站在"新十年"的起点上,CSDN[百万人学AI]评选活动正式启动.本届评选活动在 ...

  8. 搭建个人深度学习环境(一)—— 单GPU主机配置

    前言 硬件配置 配置表 选择原因 配置总结 系统环境配置及驱动安装 安装ubuntu 16.04 制作启动盘 安装系统(UEFI启动) 安装驱动 网卡驱动 显卡驱动 前言 因为实验室服务器不够用,所以 ...

  9. 深度学习笔记:windows+tensorflow 指定GPU占用内存(解决gpu爆炸问题)

    目录 文章目录 目录 前言 一.指定显卡 二.限制GPU用量 1.设置使用GPU的百分比 进行配置,使用30%的GPU 设置session 2.GPU按需使用 三.指定GPU并且限制GPU用量 指定第 ...

最新文章

  1. js调用ios的方法
  2. [实战虚拟化]无需借助虚机安装,就能从VHD原生启动
  3. mysql实验6语言结构_实验六 SQL语言数据查询语言DQL.pdf
  4. python画圣诞树代码-python圣诞树代码
  5. ArrayBlockingQueue原理分析-remove方法
  6. TypeScript Mixins 概念介绍
  7. opencore0.6.3_Ubuntu 18.04 源码编译安装 PHP 7.3
  8. 03_Influxdb数据库的简单操作
  9. windows下使用cmake+mingw配置makefile(2)
  10. Google啊谷狗,你是在考验中国人的智商还是探测中国人的情商?
  11. 关于meta http-equiv=Content-Type content=text/html:charset=UTF-8
  12. Android 四大组件学习之Activity四
  13. 在防火墙中安装ASDM
  14. stm32电容触摸按键的实现
  15. 协方差矩阵及其计算方法
  16. java记忆翻牌,原生JS实现记忆翻牌游戏
  17. 美国奶酪(芝士) - cheese
  18. oracle 月底,Oracle查询月初和月底时间
  19. 王者荣耀服务器维护5月22,王者荣耀5月22日更新维护公告 更新内容汇总
  20. img服务器上的图片不显示不出来,img标签使用绝对路径无法显示图片

热门文章

  1. js实现自定义打印区域
  2. 如何对电脑屏幕进行监控?
  3. 疯狂java讲义第七章补充习题第12题答案
  4. clickhouse-MergeTree原理解析
  5. android上使用poi操作excel
  6. svm和k-最近邻_使用K最近邻的电影推荐和评级预测
  7. 【SQL】获取第二高薪水
  8. Windows 10 使用命令行格式化磁盘/U盘
  9. php爬取房源,用python爬取二手房交易信息并进行分析
  10. 报盘、还盘的英语短句(建议收藏)