很多时候我们需要不同的环境,例如torch环境与tensorflow环境,但是他们所依赖的cuda和cudnn版本不一致,这就需要同时安装多个版本,使得他们共存,并工作。

tensorflow 1.11 + cuda9.0
====================安装cuda9.0==============
由于CUDA 9.0仅支持GCC 6.0及以下版本,而Ubuntu 18.04预装GCC版本为7.3,故手动安装gcc-5与g++-5:
sudo apt-get install gcc-5
sudo apt-get install g++-5
 
cd /usr/bin
sudo rm gcc
sudo ln -s gcc-5 gcc
sudo rm g++
sudo ln -s g++-5 g++
 
gcc -v #查看版本
--------------------------------------------------
Using built-in specs.
COLLECT_GCC=gcc
COLLECT_LTO_WRAPPER=/usr/lib/gcc/x86_64-linux-gnu/5/lto-wrapper
Target: x86_64-linux-gnu
Configured with: ../src/configure -v --with-pkgversion='Ubuntu 5.5.0-12ubuntu1' --with-bugurl=file:///usr/share/doc/gcc-5/README.Bugs --enable-languages=c,ada,c++,go,d,fortran,objc,obj-c++ --prefix=/usr --program-suffix=-5 --enable-shared --enable-linker-build-id --libexecdir=/usr/lib --without-included-gettext --enable-threads=posix --libdir=/usr/lib --enable-nls --with-sysroot=/ --enable-clocale=gnu --enable-libstdcxx-debug --enable-libstdcxx-time=yes --with-default-libstdcxx-abi=new --enable-gnu-unique-object --disable-vtable-verify --enable-libmpx --enable-plugin --enable-default-pie --with-system-zlib --enable-objc-gc --enable-multiarch --disable-werror --with-arch-32=i686 --with-abi=m64 --with-multilib-list=m32,m64,mx32 --enable-multilib --with-tune=generic --enable-checking=release --build=x86_64-linux-gnu --host=x86_64-linux-gnu --target=x86_64-linux-gnu
Thread model: posix
gcc version 5.5.0 20171010 (Ubuntu 5.5.0-12ubuntu1)

===================下载cuda9.0=====================
由于不支持ubuntu18.04则下载ubuntu16.04版本,下载cuda和四个补丁文件。(此处可以下载安装其他版本的cuda实现cuda共存)
下载完成后进行安装,cd到下载文件路径下先安装cuda主文件,再安装4个补丁文件。
sudo sh cuda_9.0.176_384.81_linux.run    # 开始安装
 
Logging to /tmp/cuda_install_20700.log
Using more to view the EULA.
End User License Agreement
--------------------------
 
Preface
-------
 
1. NVIDIA Software License Agreement
------------------------------------
 
 
Release Date: October 20, 2016
------------------------------
 
 
IMPORTANT NOTICE -- READ BEFORE DOWNLOADING, INSTALLING,
COPYING OR USING THE LICENSED SOFTWARE:
--------------------------------------------------------
 
# 按 "q"键退出协议说明
 
----------------------------------------------------------------------------------
Do you accept the previously read EULA?
accept/decline/quit: accept    # 接受协议
 
You are attempting to install on an unsupported configuration. Do you wish to continue?
(y)es/(n)o [ default is no ]: y
 
Install NVIDIA Accelerated Graphics Driver for Linux-x86_64 384.81?
(y)es/(n)o/(q)uit: n    # 由于已经安装显卡驱动,选择n,切记切记!
 
Install the CUDA 9.0 Toolkit?
(y)es/(n)o/(q)uit: y
 
Enter Toolkit Location
 [ default is /usr/local/cuda-9.0 ]:    # 工具包安装地址,默认回车即可
 
Do you want to install a symbolic link at /usr/local/cuda?
(y)es/(n)o/(q)uit: n    #*因为本机已经安装了cuda10.1因此不要创建软链接,选择n,切记切记!
 
Install the CUDA 9.0 Samples?
(y)es/(n)o/(q)uit: y    # 安装样例
 
Enter CUDA Samples Location
 [ default is /home/zzw ]: /data0/zzw/CUDA-9.0    # 样例安装地址
 
Installing the CUDA Toolkit in /usr/local/cuda-9.0 ...
Installing the CUDA Samples in /data0/zzw/CUDA-9.0 ...
Copying samples to /data0/zzw/CUDA-9.0/NVIDIA_CUDA-9.0_Samples now...
Finished copying samples.
 
===========
= Summary =
===========
 
Driver:   Not Selected
Toolkit:  Installed in /usr/local/cuda-9.0
Samples:  Installed in /data0/zzw/CUDA-9.0
 
Please make sure that
 -   PATH includes /usr/local/cuda-9.0/bin
 -   LD_LIBRARY_PATH includes /usr/local/cuda-9.0/lib64, or, add /usr/local/cuda-9.0/lib64 to /etc/ld.so.conf and run ldconfig as root
 
To uninstall the CUDA Toolkit, run the uninstall script in /usr/local/cuda-9.0/bin
 
Please see CUDA_Installation_Guide_Linux.pdf in /usr/local/cuda-9.0/doc/pdf for detailed information on setting up CUDA.
 
***WARNING: Incomplete installation! This installation did not install the CUDA Driver. A driver of version at least 384.00 is required for CUDA 9.0 functionality to work.
To install the driver using this installer, run the following command, replacing <CudaInstaller> with the name of this run file:
    sudo <CudaInstaller>.run -silent -driver
 
Logfile is /tmp/cuda_install_20700.log
 
# ***安装完成***

配置CUDA-9.0的环境变量(此处将原始cuda10.1版本的PATH注释,添加cuda9.0PATH):
sudo gedit ~/.bashrc
#在bashrc末尾添加
export PATH="$PATH:/usr/local/cuda-9.0/bin"
export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/usr/local/cuda-9.0/lib64/"
export LIBRARY_PATH="$LIBRARY_PATH:/usr/local/cuda-9.0/lib64"
#source一下
source ~/.bashrc
安装四个补丁文件
sudo sh cuda_9.0.176.1_linux.run
sudo sh cuda_9.0.176.2_linux.run
sudo sh cuda_9.0.176.3_linux.run
sudo sh cuda_9.0.176.4_linux.run

================下载cudnn7.6.0=======================
tar -zxvf cudnn-9.0-linux-x64-v7.6.0.64.tgz
$ sudo cp cuda/include/cudnn.h /usr/local/cuda/include/
$ sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64/
$ sudo chmod a+r /usr/local/cuda/include/cudnn.h
$ sudo chmod a+r /usr/local/cuda/lib64/libcudnn*
多版本cuda和cudnn切换
多版本管理在完成cuda和cudnn安装基础上,只要进行环境变量更改和软链接创建即可。

========================================多版本cuda动态切换(举例)==============================================================
1、更改环境变量,将cuda-10.1变为cuda-9.0
sudo gedit ~/.bashrc

注释掉原来的cuda10.1版本的环境变量,替换为cuda9.0的环境变量
export PATH="$PATH:/usr/local/cuda-9.0/bin"
export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/usr/local/cuda-9.0/lib64/"
export LIBRARY_PATH="$LIBRARY_PATH:/usr/local/cuda-9.0/lib64"
2、删除之前的软连接,并生成新的软连接
sudo rm -rf /usr/local/cuda #删除之前创建的软链接
sudo ln -s /usr/local/cuda-9.0 /usr/local/cuda #创建新 cuda 的软链接
重启Terminal后可以使用使用如下命令检查:

cat  /usr/local/cuda/version.txt #查看cuda版本

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2  #查看cudnn版本

【深度学习】ubuntu多环境多版本cuda与cudnn共存切换相关推荐

  1. 从零开始搭建深度学习服务器: 基础环境配置(Ubuntu + GTX 1080 TI + CUDA + cuDNN)

    从零开始搭建深度学习服务器: 基础环境配置(Ubuntu + GTX 1080 TI + CUDA + cuDNN) 首先先声明一下 这篇是转载来自  : 从零开始搭建深度学习服务器: 基础环境配置( ...

  2. ubuntu搭建深度学习的docker环境

    安装支持CUDA的Docker工具 1.安装Docker # 安装系统工具 $ sudo apt-get update $ sudo apt-get -y install apt-transport- ...

  3. 一篇就够用了——深度学习Ubuntu16.04环境配置+Win10双系统

    一篇就够用了深度学习Ubuntu16.04环境配置 必看!此教程使用说明 [必备配置]基本环境配置 1.win10+ubuntu16.04双系统安装 2.ubuntu最重要的事--切换下载源 3.ub ...

  4. 从零开始搭建一台深度学习服务器及环境配置

    从零开始搭建一台深度学习服务器及环境配置 服务器硬件 2019.12.12 系统安装 环境配置--现有最新版本 服务器硬件 2019.12.12 实验室需求,我找的配置,反正不用我花钱独享一台服务器 ...

  5. Win10+CUDA11.0+RTX 3060ti GPU深度学习主机 pytorch 环境

    Win10+CUDA11.0+RTX 3060ti GPU深度学习主机 pytorch 环境 0. 前言 1. 安装Anaconda ***** 新建环境 ***** 2. 安装CUDA和cuDNN ...

  6. CV:Win10下深度学习框架安装之Tensorflow/tensorflow_gpu+Cuda+Cudnn(最清楚/最快捷)之详细攻略(图文教程)

    CV:Win10下深度学习框架安装之Tensorflow/tensorflow_gpu+Cuda+Cudnn(最清楚/最快捷)之详细攻略(图文教程) 导读 本人在Win10下安装深度学习框架Tenso ...

  7. 深度学习之tensorflow环境搭建

    深度学习之tensorflow环境搭建: 1.搭建的步骤 1-1.破解版的Pycharm软件包下载 1-2.Ananconda软件包的下载 1-3.使用Anaconda Prompt 命令,首先输入 ...

  8. 计算机控制在无人车中的应用,深度学习在无人驾驶环境感知中的应用方案

    机器深度学习是近年来在人工智能领域的重大突破之一,它在语音识别.自然语言处理.计算机视觉等领域都取得了不少成功.由于车辆行驶环境复杂,当前感知技术在检测与识别精度方面无法满足无人驾驶发展需要,深度学习 ...

  9. 【大咖说Ⅲ】谢娟英教授:基于深度学习的野外环境下蝴蝶物种自动识别

    欢迎来到2022 CCF BDCI 大咖说系列专题报告 听顶级专家学者围绕特定技术领域或选题,讲述自身成果的研究价值与实际应用价值 便于广大技术发烧友.大赛参赛者吸收学术知识,强化深度学习 每周一.三 ...

最新文章

  1. Java系列:关于Java中的桥接方法
  2. android 判断手机计步_干货:电脑控制手机 一定不能错过的神器
  3. python定义函数需要保留字def_定义函数时要用到哪一个python保留字?_学小易找答案...
  4. const型数据小结
  5. 使用ApexSQL Log 分析数据库在线日志及数据库备份
  6. 客户价值分析—RFM模型及变形
  7. android intent json,如何从android中的Intent服务中的服务器获取Json响应?
  8. Nmap简单使用教程
  9. 《SPSS统计分析与行业应用实战》之诊断试验与ROC分析
  10. 2023年北京航空航天大学材料与化工(金属方向)考研成功经验
  11. matlab 元胞数组
  12. 校验码(循环冗余校验码)
  13. 其实就是为了能有字幕特效,用MeGUI + AVS压制PSP MP4AVC视频03 - 实战简单转换篇...
  14. linux pl2303 驱动下载,ubuntu装pl2303USB转串口驱动(详细,亲测)
  15. DeepCross(DCN)模型及torch实现
  16. c语言英文数字变数字,[求助]阿拉伯数字变英文数字遇到的问题
  17. 1867. 最大数量高于平均水平的订单
  18. iOS 蓝牙连接小米手环
  19. 一个中专生:我在华为面试的真实经历,转
  20. PromeS unhandledRejection

热门文章

  1. Python开发实战
  2. 设计模式-策略模式2.0
  3. Web服务器,应用服务器,HTTP服务器,web软件数据流向
  4. CSS通栏背景的设置(解决浏览器缩放带来的影响)
  5. 2020.3.18普及C组 音乐节拍(mnotes)【纪中】【二分】
  6. 安装MSDE2000数据库教程
  7. FMEA软件——AIAG VDA FMEA成功的因素
  8. xpraid安装_AMD组建RAID中的XP系统安装方法
  9. 腾讯 Angel Graph 图计算框架在智能风控中的应用
  10. 【Linux】基础IO2