查看和指定GPU服务器显卡

  • 1.查看显卡
  • 2.间隔查看GPU使用情况
  • 3.查看当前显卡信息
  • 4. 使用os指定使用的显卡

1.查看显卡

nvidia-smi

GPU:GPU 编号;与实际编号不一定一致
Name:GPU 型号;
Persistence-M:持续模式的状态。持续模式虽然耗能大,但是在新的GPU应用启动时,花费的时间更少,这里显示的是off的状态;
Fan:风扇转速,从0到100%之间变动;
Temp:温度,单位是摄氏度;
Perf:性能状态,从P0到P12,P0表示最大性能,P12表示状态最小性能(即 GPU 未工作时为P0,达到最大工作限度时为P12)。
Pwr:Usage/Cap:能耗;
Memory Usage:显存使用率;
Bus-Id:涉及GPU总线的东西
Disp.A:Display Active,表示GPU的显示是否初始化;
Volatile GPU-Util:浮动的GPU利用率;
Uncorr. ECC:Error Correcting Code,错误检查与纠正;
Compute M:compute mode,计算模式

2.间隔查看GPU使用情况

间隔10s刷新信息

watch -n 10 nvidia-smi

间隔5s刷新信息

watch -n 5 nvidia-smi

3.查看当前显卡信息

通过nvidia-smi查看的显卡排序不一定是正确的。可能使用到Torch的以下函数确定当前显卡。
torch.cuda.is_available() # 判断GPU是否可用
torch.cuda.device_count() # 查看可用GPU数量
torch.cuda.current_device() # 当前设备的索引,从0开始
torch.cuda.get_device_name(0) # 返回GPU名字

根据上面的信息,我这里有4个GPU。

>>> import torch
>>> torch.cuda.device_count()
4
>>> torch.cuda.current_device()
0
>>> torch.cuda.get_device_name(0)
'NVIDIA TITAN V'
>>> torch.cuda.get_device_name(1)
'NVIDIA TITAN V'
>>> torch.cuda.get_device_name(2)
'Tesla V100S-PCIE-32GB'
>>> torch.cuda.get_device_name(3)
'Tesla V100S-PCIE-32GB'

4. 使用os指定使用的显卡

上面查询到4个可用GPU信息,但是我们想指定在某张或者某几张显卡上训练网络。
(1)使用os.environ指定要使用的显卡:

import os
os.environ["CUDA_VISIBLE_DEVICES"] = '2,3'

把os.environ[‘CUDA_VISIBLE_DEVICES’]='2,3’放在所有访问GPU的代码之前,否则设置不生效。
假设原来有4张卡,编号为0的是主卡,现在编号为2的是主卡,且每张显卡的默认标号为[0,1]。
(2)将网络放到指定GPU上训练

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
model = Model()if torch.cuda.device_count() > 1:model = nn.DataParallel(model, device_ids=[0,1])
model.to(device)

device_ids=[0,1]里面的0指的是4张显卡里面的第三张,1表示第四张。

查看和指定GPU服务器显卡训练模型相关推荐

  1. 使用google云GPU服务器免费训练模型(薅羊毛)

    简介 Google Colab是一个云端Jupyter 笔记本环境,它是完全免费的,唯一的限制条件是需要挂个梯子,毕竟是谷歌的东西. 使用方式 1.创建Colaboratory 在谷歌云盘中新建中选择 ...

  2. CentOS查看显卡及GPU相关信息,指定GPU、CPU运行

    一.查看信息 在一套标准的系统上通常有多个计算设备. TensorFlow 支持 CPU 和 GPU 这两种设备. 我们用指定字符串 strings 来标识这些设备. 比如: "/cpu:0 ...

  3. linux系统怎样指定gpu运行,linux服务器如何指定gpu以及用量

    1.在终端执行程序时指定GPU CUDA_VISIBLE_DEVICES=0    python  your_file.py  # 指定GPU集群中第一块GPU使用,其他的屏蔽掉 CUDA_VISIB ...

  4. 查看服务器显卡运行状况

    查看服务器显卡运行状况 在Linux服务器上我们可以使用以下命令行来查看,显卡运行情况(假设已经安装完cuda等对应驱动,并可以使用) nvidia-smi # 查看GPU运行情况 watch -n ...

  5. 服务器后台训练模型,查看后台进程,关闭后台进程

    1.服务器后台训练模型 nohup 原命令 & nohup python train.py > log.txt 2>&1 & #输出运行过程到log,txt noh ...

  6. Java 网络实例二(查看主机指定文件的最后修改时间、Socket实现多线程服务器程序、Socket连接到指定主机、网页抓取)

    查看主机指定文件的最后修改时间 import java.net.URL; import java.net.URLConnection; import java.util.Date; import ja ...

  7. 什么是显卡?GPU服务器有什么作用?如何选择?

    什么是显卡? 相信很多人都认为这就是一个游戏工具,认为现在高性能的显卡难道只是为游戏而生.其实目前不少公司已经意识到GPU大规模并行计算带来的优势,开始用强大的GPU服务器进行各种方向的研究,而这些研 ...

  8. gpu云服务器运行游戏_显卡云主机-游戏安卓模拟器GPU独立显卡云服务器

    云服务器没显卡吗?一般市面上的通用云服务器类型主要用于开发用途,很多是没有显卡的,尤其是 linux这样的系统环境.不过,也有的主机带有显卡,比如gpu云服务器很多都有显卡.因为gpu云服务器一般可用 ...

  9. 腾讯云GT4 GPU服务器NVIDIA A100显卡AMD ROME平台支持PCIe 4.0技术

    腾讯云GPU服务器推出GT4实例,搭载NVIDIA A100的GPU云服务器,搭配AMD ROME平台,支持PCIe 4.0技术以及最高180核的vCPU,云服务器吧分享腾讯云GPU服务器GT4实例配 ...

最新文章

  1. 添加百度地图最简单的办法
  2. 期末总结:LINUX内核分析与设计期末总结
  3. Atom中安装atom-terminal插件来打开命令行运行vue项目
  4. 零基础学Python(第八章 for循环·超重点,本章会有几个简单的单层循环练习,后续会有针对算法的单独章节)
  5. 一文详解pytorch的“动态图”与“自动微分”技术
  6. 英语26个字母使用频度
  7. linux sql语句传参数,Linux/Unixshell参数传递到SQL脚本
  8. 利用MSFM算法计算程函方程的走时CT胖射线反演法
  9. 信息源按加工深度划分_工程勘察时如何划分地层?勘查总工实力整理
  10. INIT: vesion 2.88 booting
  11. 电子工业出版社PPT图书优秀作者上海书城讲座
  12. 温习SQL server
  13. 2016清华计算机学院复试名单,清华大学计算机系2016统考硕士拟录取名单
  14. 生活随记-如何健康摄入果糖
  15. 解决Laragon的nginx/apache重启后网站配置文件被修改的问题 - This file has been modified by another program - 文件auto.conf
  16. ENQUEUE_MIGRATED
  17. Linux系统重装时保留重要分区
  18. glassfish配置错误问题 1
  19. Kaggle实战(一):泰坦尼克获救预测
  20. 判断三极管是否是NPN与PNP,并判断EBC

热门文章

  1. MMA-利用Methematica推导一阶线性微分方程
  2. IoTDB在Linux上部署的傻瓜式教程
  3. jquery video全屏_video播放器全屏兼容方案
  4. centos7连接华为san存储_云计算中的存储技术 | SPOTO 分享
  5. 亚马逊备案或授权出现品牌滥用怎么办?现在的通过率很高么?
  6. 微积分-sign(符号)函数
  7. 弗洛伊德(Floyd)算法c++版
  8. Matlab中求取置信区间
  9. hdfs查看目录文件的大小 hdfs dfs -du -s -h /
  10. 自复式过欠压保护器的优势