os.environ[‘CUDA_VISIBLE_DEVICES‘]指定GPU后,还是用的“0“卡
背景
实验室服务器有多张显卡,但今天“0”卡显存已被占满,因此我在代码中添加os.environ['CUDA_VISIBLE_DEVICES']=“2”
指定使用编号为"2"的显卡(显存够的前提下)。但跑VGG16的时候却报错:
经过调试发现os.environ['CUDA_VISIBLE_DEVICES']
想要生效,import torch
的位置需要放在指令os.environ['CUDA_VISIBLE_DEVICES']
后面才行。
验证方案
利用torch.cuda.device_count()
协助判断指令os.environ['CUDA_VISIBLE_DEVICES']="x"
是否生效
# 实验室服务器有8台GPU
# 选择调用其中三台
# torch.cuda.device_count(): 查看可用的GPU数量# 实验1. 将import torch放在指令os.environ['CUDA_VISIBLE_DEVICES']="x"前面
import os
import torch
os.environ['CUDA_VISIBLE_DEVICES']='0, 1, 2' # 程序可见的GPU
print(torch.cuda.device_count()) # 8 说明指令没生效# 实验2. 将import torch放在指令os.environ['CUDA_VISIBLE_DEVICES']="x"后面
import os
os.environ['CUDA_VISIBLE_DEVICES']='0, 1, 2' # 程序可见的GPU
import torch
print(torch.cuda.device_count()) # 3 说明指令生效
总结
上述验证实验表明,如果想要os.environ['CUDA_VISIBLE_DEVICES']
起作用,需将import torch
放在指令os.environ['CUDA_VISIBLE_DEVICES']="x"
后面
os.environ[‘CUDA_VISIBLE_DEVICES‘]指定GPU后,还是用的“0“卡相关推荐
- os.environ[CUDA_DEVICE_ORDER] = PCI_BUS_ID os.environ[CUDA_VISIBLE_DEVICES] = 0
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" # 按照PCI_BUS_ID顺序从0开始排列GPU设备 os.e ...
- os.environ[‘CUDA_VISIBLE_DEVICES‘]= ‘0‘设置环境变量
os.environ['环境变量名称']='环境变量值' #其中key和value均为string类型 import os os.environ["CUDA_VISIBLE_DEVICES& ...
- pytorch指定GPU训练
主要讲单机多卡(单主机多GPUs训练) 使用多卡训练的方式有很多,当然前提是我们的设备中存在多个GPU:使用命令nvidia-smi查看当前Ubuntu平台的GPU数量,其中每个GPU被编上了序号:[ ...
- python os.environ gpu_Tensorflow下如何实现多GPU数据并行训练?
方法1 在 Python 代码中,采用以下指令设置需要的 GPU 型号,比如我用 0 号和 1 号 GPU 训练模型(前提是你已经安装了 CUDA 和 CUDNN): os.environ['CUDA ...
- PyTorch无法指定GPU的问题解决
最近在一台8卡服务器上跑PyTorch的训练代码,一直都没有问题.但是重新安装cuda之后,无法指定在哪几块GPU上运行了,只能按照顺序从第0块开始使用.查了一些资料,问题得到解决. 1.在pytho ...
- CentOS查看显卡及GPU相关信息,指定GPU、CPU运行
一.查看信息 在一套标准的系统上通常有多个计算设备. TensorFlow 支持 CPU 和 GPU 这两种设备. 我们用指定字符串 strings 来标识这些设备. 比如: "/cpu:0 ...
- pytorch指定gpu
参考:https://www.jianshu.com/p/a014016723d8 1. 改变系统变量使得仅目标显卡可见 export CUDA_VISIBLE_DEVICES=0 #这里是要使用的G ...
- 深度学习笔记:windows+tensorflow 指定GPU占用内存(解决gpu爆炸问题)
目录 文章目录 目录 前言 一.指定显卡 二.限制GPU用量 1.设置使用GPU的百分比 进行配置,使用30%的GPU 设置session 2.GPU按需使用 三.指定GPU并且限制GPU用量 指定第 ...
- linux系统怎样指定gpu运行,linux服务器如何指定gpu以及用量
1.在终端执行程序时指定GPU CUDA_VISIBLE_DEVICES=0 python your_file.py # 指定GPU集群中第一块GPU使用,其他的屏蔽掉 CUDA_VISIB ...
最新文章
- First non repeating word in a file? File size can be 100GB.
- 2013-2014 ACM-ICPC, NEERC, Southern Subregional Contest Problem D. Grumpy Cat 交互题
- 如何正确处理Android6.0+的运行时权限申请
- 收集一些深度学习视频
- 【S操作】轻松优雅防止(解决)两次掉进同一坑的完美解决方案,arduino通知提醒方案...
- Visual Studio2008安装后更换调试器的问题
- 本地的文件怎么放到虚拟桌面_搬新家桌面文件怎么收纳?5个便宜实用的收纳神器,你买过几个?...
- SVN项目,快速查看项目的当前版本号
- sklearn机器学习常用数据处理总结
- php写好程序后需要嵌套,什么是PHP嵌套函数?
- 图的单源最短路径(Dijkstra算法)
- 蓝桥杯 ADV-203 算法提高 8皇后·改(八皇后问题)
- devise的使用的中文教程
- 解决win7下打不开虚拟机的情况
- html a 标签 邮件超链接 发送邮件
- mupdf添加图片水印_在博客园里给图片加水印(canvas + drag)
- 一副眼镜一千多贵吗_眼镜片的价格差距为什么那么大
- 073_SFDC Limit
- Hololens环境搭建
- 人工智能会终结就业吗之《AI极简经济学》