Ubuntu服务器上的NVIDA CUDA

2017年11月3日

ubuntu server nvidia

在上一篇有关在Ubuntu上进行以太坊挖矿的文章中,我最后指出要获得NVIDIA的CUDA驱动程序需要花费什么。在某些应用程序中使用CUDA驱动程序可以进一步释放我的NVIDIA GTX 1070显卡的性能,特别是在进行以太坊挖矿时可以证明其改进。

这篇文章将演示CUDA驱动程序的两种安装方法:

  1. Ubuntu软件包存档
  2. NVIDIA套件档案

Ubuntu软件包存档

从存档安装非常简单快捷。所需要做的就是安装nvidia-cuda-toolkit软件包,它还将获取所有必需的CUDA库和工具:

sudo apt update
sudo apt install nvidia-cuda-toolkit
sudo shutdown -r now

重新启动后,要验证是否已安装CUDA驱动程序,可以通过以下三种方法来检查一切是否正常运行:

  1. 检查/ dev中是否存在nvidia *设备文件
  2. 使用nvcc命令显示已安装的驱动程序版本
  3. 运行nvidia-smi以获取有关设备的详细版本,例如电源和风扇信息,使用GPU的进程以及驱动程序版本。

这三个示例的输出如下:

$ ls /dev/nvidia*
/dev/nvidia0  /dev/nvidiactl /dev/nvidia-uvm
$ nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2015 NVIDIA Corporation
Built on Tue_Aug_11_14:27:32_CDT_2015
Cuda compilation tools, release 7.5, V7.5.17
$ nvidia-smi
Sat Oct 28 14:17:15 2017
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.90                 Driver Version: 384.90                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 1070    Off  | 00000000:01:00.0  On |                  N/A |
|  0%   49C    P8    11W / 185W |     99MiB /  8110MiB |      0%      Default |
+-------------------------------+----------------------+----------------------++-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      1170      G   /usr/lib/xorg/Xorg                            97MiB |
+-----------------------------------------------------------------------------+

NVIDIA封装档案

本节将寻求直接从NVIDIA本身下载库,以获取软件包的最新版本。NVIDIA repo还包含各种元数据包,使最终用户可以将安装限制为所需的库,运行时或工具包,而不是安装所有内容。

NVIDIA运行一个存储库,可以将其添加到apt,然后直接从中安装。使用此存储库意味着安装将保持最新。我将使用CUDA元软件包,该软件包将安装所有CUDA工具包和驱动程序软件包,并在发布新版本时进行升级:

echo "deb https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1604/x86_64/ /" | sudo tee /etc/apt/sources.list.d/cuda.list
sudo apt-key adv --fetch-keys http://developer.download.nvidia.com/compute/cuda/repos/ubuntu1604/x86_64/7fa2af80.pub
sudo apt update
sudo apt install cuda
sudo shutdown -r now

最后一步是需要修改路径以指向二进制文件:

export PATH=/usr/local/cuda-9.0/bin${PATH:+:${PATH}}

测试CUDA

/ dev,nvcc和nvidia-smi的输出类似于下面的存档中的安装:

$ ls /dev/nvidia*
/dev/nvidia0  /dev/nvidiactl  /dev/nvidia-modeset  /dev/nvidia-uvm  /dev/nvidia-uvm-tools
$ nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2017 NVIDIA Corporation
Built on Fri_Sep__1_21:08:03_CDT_2017
Cuda compilation tools, release 9.0, V9.0.176
$ nvidia-smi
Sat Oct 28 15:57:59 2017
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.90                 Driver Version: 384.90                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 1070    Off  | 00000000:01:00.0  On |                  N/A |
|  0%   41C    P8    10W / 185W |    121MiB /  8110MiB |      0%      Default |
+-------------------------------+----------------------+----------------------++-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      1181      G   /usr/lib/xorg/Xorg                           119MiB |
+-----------------------------------------------------------------------------+

此外,该软件包还附带了一些有趣的脚本,可在参考资料中找到/usr/local/cuda/extras/demo_suite

设备查询

$ /usr/local/cuda/extras/demo_suite/deviceQuery
./deviceQuery Starting...CUDA Device Query (Runtime API) version (CUDART static linking)Detected 1 CUDA Capable device(s)Device 0: "GeForce GTX 1070"CUDA Driver Version / Runtime Version          9.0 / 9.0CUDA Capability Major/Minor version number:    6.1Total amount of global memory:                 8111 MBytes (8504868864 bytes)(15) Multiprocessors, (128) CUDA Cores/MP:     1920 CUDA CoresGPU Max Clock rate:                            1797 MHz (1.80 GHz)Memory Clock rate:                             4004 MhzMemory Bus Width:                              256-bitL2 Cache Size:                                 2097152 bytesMaximum Texture Dimension Size (x,y,z)         1D=(131072), 2D=(131072, 65536), 3D=(16384, 16384, 16384)Maximum Layered 1D Texture Size, (num) layers  1D=(32768), 2048 layersMaximum Layered 2D Texture Size, (num) layers  2D=(32768, 32768), 2048 layersTotal amount of constant memory:               65536 bytesTotal amount of shared memory per block:       49152 bytesTotal number of registers available per block: 65536Warp size:                                     32Maximum number of threads per multiprocessor:  2048Maximum number of threads per block:           1024Max dimension size of a thread block (x,y,z): (1024, 1024, 64)Max dimension size of a grid size    (x,y,z): (2147483647, 65535, 65535)Maximum memory pitch:                          2147483647 bytesTexture alignment:                             512 bytesConcurrent copy and kernel execution:          Yes with 2 copy engine(s)Run time limit on kernels:                     YesIntegrated GPU sharing Host Memory:            NoSupport host page-locked memory mapping:       YesAlignment requirement for Surfaces:            YesDevice has ECC support:                        DisabledDevice supports Unified Addressing (UVA):      YesSupports Cooperative Kernel Launch:            YesSupports MultiDevice Co-op Kernel Launch:      YesDevice PCI Domain ID / Bus ID / location ID:   0 / 1 / 0Compute Mode:< Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 9.0, CUDA Runtime Version = 9.0, NumDevs = 1
Result = PASS

带宽测试

$ /usr/local/cuda/extras/demo_suite/bandwidthTest
[CUDA Bandwidth Test] - Starting...
Running on...Device 0: GeForce GTX 1070Quick ModeHost to Device Bandwidth, 1 Device(s)PINNED Memory TransfersTransfer Size (Bytes)    Bandwidth(MB/s)33554432         12665.1Device to Host Bandwidth, 1 Device(s)PINNED Memory TransfersTransfer Size (Bytes)    Bandwidth(MB/s)33554432         12916.1Device to Device Bandwidth, 1 Device(s)PINNED Memory TransfersTransfer Size (Bytes)    Bandwidth(MB/s)33554432         190526.5Result = PASSNOTE: The CUDA Samples are not meant for performance measurements. Results may vary when GPU Boost is enabled.

NVIDA CUDA相关推荐

  1. 【centos】安装nvida CUDA平台附带安装cudnn库及TensorRT8

    目录 1.安装 CUDAToolKit 2.安装cudnn库 3.附录:关于CUDA 4.英伟达GPU相关术语 1.安装 CUDAToolKit 使用 lspci | grep -i nvidia 列 ...

  2. 较真:认真解读“NVIDA CUDA显卡计算能力表”

    博主在硬件设备方面还是个小白,近日想要知道深度学习应当选用哪些显卡,其性能如何?且网络上能搜到的GPU天梯图似乎都停留在以装机选配为目的的个人级别上,于是在本站试图搜索相关文章或者排行,看到有不少博主 ...

  3. NVIDA CUDA和cuDNN安装教程

    文章目录 一. 查看自己的GPU版本是否支持cuda 二 .安装CUDA 三. 安装cuDNN 一. 查看自己的GPU版本是否支持cuda 打开显卡的控制面板,查看显卡是否支持cuda 二 .安装CU ...

  4. NVIDA CUDA显卡算力对照表

    来源:https://developer.nvidia.com/cuda-gpus ![Quadro显卡计算能力 cuda和显卡版本对应关系

  5. NVIDA CUDA显卡计算能力 GeForce RTX 2060 compute_capability

    2060的计算能力:compute_capability = 750,GPU: GeForce RTX 2060 下图为在测试训练数据时 打印的日志

  6. NVIDA CUDA显卡计算能力对应表

    来自;https://developer.nvidia.com/cuda-gpus 1) CUDA-Enabled Tesla Products Tesla Workstation Products ...

  7. 使用Amazon Deep Learning AMI 快速实现 CUDA,cuDNN 和深度学习框架版本兼容

    前言 在开展深度学习项目时,我们通常会选择合适的深度学习框架.使用深度学习框架进行模型开发,能减少大量的重复代码工作.目前最流行的深度学习框架有:TensorFlow,PyTorch,MXNect,C ...

  8. 使用 Amazon Deep Learning AMI 快速实现 CUDA,cuDNN 和深度学习框架版本兼容

    在开展深度学习项目时,我们通常会选择合适的深度学习框架.使用深度学习框架进行模型开发,能减少大量的重复代码工作.目前最流行的深度学习框架有:TensorFLow,PyTorch,MXNect,Caff ...

  9. docker 配置使用宿主机的GPU(ubuntu16.04+cuda10.0+cudnn7)

    1. 安装 Docker 卸载旧版本 Docker sudo apt-get remove docker docker-engine docker.io containerd runc 安装新版本 s ...

最新文章

  1. crud springmvc
  2. 正则表达式语法规则收集
  3. 全球半导体产业迁移 中国的机遇与挑战
  4. IDEA 2022.2.1 Beta 2发布:新增支持Java 18、增强JUnit 5的支持
  5. 由浅到深了解JavaScript类
  6. 怎么卸载旧版本java_卸载旧的java-jdk安装新版本jdk
  7. 卡罗林斯卡学院(Karolinska Institute)
  8. 用不好这七大工具,别说你懂项目管理!
  9. [zz]NoSQL对比:Cassandra vs MongoDB vs CouchDB vs Redis vs Riak vs HBase vs Membase vs Neo4j
  10. Extjs可视化设计视频教程三
  11. 上海区块链会议演讲ppt_如何确保会议高质量的演讲
  12. Golang在Linux环境下的POSIX风格socket编程
  13. python 自动登录网站_分析某网站,并利用python自动登陆该网站,下载网站内容...
  14. 华为USG6000V 多ISP接入Internet(基于ISP目的地址的多出口)
  15. FastAdmin 目录权限设置
  16. Web前端HTML+CSS全套(1~20)
  17. hdu 2066 一个人的旅行 (多源最短路 )
  18. JAVA面试算法小记
  19. 图像处理------图像加噪
  20. 初中计算机word试题,初中计算机会考word试题WORD15

热门文章

  1. 32位系统和64位系统的说明
  2. 从零开始的nrf52832蓝牙开发--蓝牙BLE主函数分析
  3. mpich2+gfortran+siesta3.1安装过程
  4. 【bpmn.js 使用总结】二、了解 bpmn-js 内部
  5. 《Densely Connected Convolutional Networks》论文心得
  6. 《物联网Android程序开发案例式教程》Demo4:模拟进度条
  7. 去耦电容的作用和原理
  8. 微信小程序因视频播放不合规问题解决
  9. 蜘蛛池到底有没有用?超级蜘蛛池
  10. M102: MongoDB for DBAs chapter 1 introduction学习记录