本文为作者原创,转载请注明出处(http://www.cnblogs.com/mar-q/)by 负赑屃
写在前面:
  请参考之前的文章安装好CentOS、NVIDIA相关驱动及软件、docker及加速镜像。
  主机运行环境
$ uname -a
Linux CentOS 3.10.0-514.26.2.el7.x86_64 #1 SMP Tue Jul 4 15:04:05 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux
$ cat /usr/local/cuda/version.txt
CUDA Version 8.0.61
$ cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
#define CUDNN_MAJOR      6
#define CUDNN_MINOR      0
#define CUDNN_PATCHLEVEL 21
#define CUDNN_VERSION    (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL)
#include "driver_types.h"
# NVIDIA 1080ti

一、关于GPU的挂载
1. 在docker运行时指定device挂载
  先查看一下有哪些相关设备
$ ls -la /dev | grep nvidia
crw-rw-rw-   1 root root    195,   0 Nov 15 13:41 nvidia0
crw-rw-rw-   1 root root    195,   1 Nov 15 13:41 nvidia1
crw-rw-rw-   1 root root    195, 255 Nov 15 13:41 nvidiactl
crw-rw-rw-   1 root root    242,   0 Nov 15 13:41 nvidia-uvm
crw-rw-rw-   1 root root    242,   1 Nov 15 13:41 nvidia-uvm-tools

  电脑上装了两个显卡。我需要运行pytorch,dockerhub中pytorch官方镜像没有gpu支持,所以只能先pull一个anaconda镜像试试,后面可以编排成Dockerfile。

$ docker run -it -d --rm --name pytorch -v /home/qiyafei/pytorch:/mnt/home --privileged=true --device /dev/nvidia-uvm:/dev/nvidia-uvm --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl okwrtdsh/anaconda3 bash

  okwrtdsh的镜像似乎是针对他们实验室GPU环境的,有点过大了,不过勉强运行一下还是可以的。在容器内部还需要安装pytorch:
$ conda install pytorch torchvision -c pytorch

  这里运行torch成功,但是加载显卡失败了,可能还是因为驱动不匹配的原因吧,需要重新安装驱动,暂时不做此尝试;
二、通过nvidia-docker在docker内使用显卡
详细信息:https://github.com/NVIDIA/nvidia-docker
(1)安装nvidia-docker
  nvidia-docker其实是docker引擎的一个应用插件,专门面向NVIDIA GPU,因为docker引擎是不支持NVIDIA驱动的,安装插件后可以在用户层上直接使用cuda。具体看上图。这个图很形象,docker引擎的运行机制也表现出来了,就是在系统内核之上通过cgroup和namespace虚拟出一个容器OS的用户空间,我不清楚这是否运行在ring0上,但是cuda和应用确实可以使用了(虚拟化的问题,如果关心此类问题可以了解一些关于docker、kvm等等虚拟化的实现方式,目前是系统类比较火热的话题)
  下载rpm包:https://github.com/NVIDIA/nvidia-docker/releases/download/v1.0.1/nvidia-docker-1.0.1-1.x86_64.rpm
  这里也可以通过添加apt或者yum sourcelist的方式进行安装,但是我没有root权限,而且update容易引起docker重启,如果不是实验室的个人环境不推荐这么做,防止破坏别人正在运行的程序(之前公司一个小伙子就是在阿里云上进行了yum update,结果导致公司部分业务停了一个上午)。
$ sudo rpm -i nvidia-docker-1.0.1-1.x86_64.rpm && rm nvidia-docker-1.0.1-1.x86_64.rpm
$ sudo systemctl start nvidia-docker

(2)容器测试
  我们还需要NVIDIA官方提供的docker容器nvidia/cuda,里面已经编译安装了CUDA和CUDNN,或者直接run,缺少image的会自动pull。
$ docker pull nvidia/cuda
$ nvidia-docker run --rm nvidia/cuda nvidia-smi

  在容器内测试是可以成功使用nvidia显卡的:

(3)合适的镜像或者自制dockerfile
  • 合适的镜像:这里推荐Floydhub的pytorch,注意对应的cuda和cudnn版本。
docker pull floydhub/pytorch:0.3.0-gpu.cuda8cudnn6-py3.22
nvidia-docker run -ti -d --rm floydhub/pytorch:0.3.0-gpu.cuda8cudnn6-py3.22 bash

  • 自制dockerfile
  首先,我们需要把要装的东西想清楚:
  1. 基础镜像肯定是NVIDIA官方提供的啦,最省事,不用装cuda和cudnn了;
  2. vim、git、lrzsz、ssh这些肯定要啦;
  3. anaconda、pytorch肯定要啦;
  所以需要准备好国内源source.list,否则安装速度很慢。
deb-src http://archive.ubuntu.com/ubuntu xenial main restricted #Added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial main restricted
deb-src http://mirrors.aliyun.com/ubuntu/ xenial main restricted multiverse universe #Added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted
deb-src http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted multiverse universe #Added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial universe
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates universe
deb http://mirrors.aliyun.com/ubuntu/ xenial multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse #Added by software-properties
deb http://archive.canonical.com/ubuntu xenial partner
deb-src http://archive.canonical.com/ubuntu xenial partner
deb http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted
deb-src http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted multiverse universe #Added by software-properties
deb http://mirrors.aliyun.com/ubuntu/ xenial-security universe
deb http://mirrors.aliyun.com/ubuntu/ xenial-security multiverse

  下载anaconda的地址:https://repo.continuum.io/archive/Anaconda3-5.0.1-Linux-x86_64.sh,这里直接在Dockerfile里下了,具体如下:
$ vim Dockerfile

FROM nvidia/cuda
LABEL author="qyf"
ENV PYTHONIOENCODING=utf-8
RUN mv /etc/apt/sources.list /etc/apt/sources.list.bak
ADD $PWD/sources.list /etc/apt/sources.list
RUN apt-get update --fix-missing && \apt-get install -y vim net-tools curl wget git bzip2 ca-certificates libglib2.0-0 libxext6 libsm6 libxrender1 mercurial subversion apt-transport-https software-properties-common
RUN apt-get install -y openssh-server -y
RUN echo 'root:passwd' | chpasswd
RUN sed -i 's/PermitRootLogin prohibit-password/PermitRootLogin yes/' /etc/ssh/sshd_config
RUN sed -i 's/#PasswordAuthentication yes/PasswordAuthentication yes/' /etc/ssh/sshd_config
RUN echo 'export PATH=/opt/conda/bin:$PATH' > /etc/profile.d/conda.sh && wget --quiet https://repo.continuum.io/archive/Anaconda3-5.0.1-Linux-x86_64.sh -O ~/anaconda.sh && /bin/bash ~/anaconda.sh -b -p /opt/conda && rm ~/anaconda.sh
ENV PATH /opt/conda/bin:$PATH
RUN conda install pytorch torchvision -c pytorch -y
ENTRYPOINT [ "/usr/bin/tini", "--" ]
CMD [ "/bin/bash" ]

  通过docker build构造镜像:
docker build -t pytorch/cuda8 ./

  运行成功调用cuda。
 
  
三、关于一些bug
  这里有部分debian的配置,我照着dockerhub上anaconda镜像抄的,这里就不再配置了,反正跑起来后有镜像也可以用。系统随后可能会出现错误:
kernel:unregister_netdevice: waiting for lo to become free. Usage count = 1
  这是一个Ubuntu的内核错误,截止到到目前为止似乎还没完全解决。
  这个小哥给出了一个解决方案,至少他给出的错误原因我是相信的:是由内核的TCP套接字错误引发的。这里我给出一些思考,关于上面的结构图,在显卡上,通过nvidia-docker,docker之上的容器可以使用到底层显卡(驱动显然是在docker之下的),而TCP套接字,我猜测也是这种使用方法,而虚拟出来的dockerOS,应该是没有权限来访问宿主机内核的,至少内核限制了部分权限。这位小哥给出了测试内核,如果有兴趣可以去帮他测试一下:https://bugs.launchpad.net/ubuntu/+source/linux/+bug/1711407/comments/46。
  

转载于:https://www.cnblogs.com/mar-q/p/8417184.html

docker挂载NVIDIA显卡运行pytorch相关推荐

  1. docker挂载NVIDIA显卡

    from:docker挂载NVIDIA显卡运行pytorch 写在前面: 请参考之前的文章安装好CentOS.NVIDIA相关驱动及软件.docker及加速镜像. 主机运行环境 $ uname -a ...

  2. AMD处理器,NVIDIA显卡下载pytorch问题

    显卡:3050,处理器:R75800. 问题描述:安装pytorch官网下载pytorch时,明明下载gpu版本的pytorch,测试却是cpu版本. 情况如下:(如下是我朋友安装命令,之前我解决忘记 ...

  3. 由dgl 升级到0.9.0引起的nvidia显卡驱动升级和docker升级

    背景 由于需要用到dgl库中最新的采样器,必须将dgl升级到0.9.0版本.dgl本身升级很方便,一个pip命令搞定,可惜升级完不能用,报错信息说需要更高的pytorch版本,于是又将pytorch升 ...

  4. Ubuntu16.06 单Nvidia显卡 深度学习运行时 界面卡顿(刷新慢)的解决方法

    关于Ubuntu单Nvidia显卡 深度学习运行时 界面卡顿(刷新慢)的解决方法 背景 我在按照 本链接 的第二种方法安装后,成功安装cuda 10.0与cudnn之后,在深度学习训练过程中发现了严重 ...

  5. Ubuntu18.04下安装NVIDIA显卡驱动、docker、nvidia-docker;容器中编译安装opencv-4.4.0与darknet-yolov4并完成测试;容器封装镜像转移。2022

    记录一下第一次在CSDN发博客,欢迎大家光临~ 文章目录 前言 一.宿主机配置 1.安装Ubunntu18.04 64位系统 2.为宿主机系统更换国内软件源Ubuntu 官方源服务器在欧洲,国内访问很 ...

  6. centos8安装NVIDIA显卡驱动,运行机器学习代码

    官方安装文档:NVIDIA Driver Installation Quickstart Guide :: NVIDIA Tesla Documentation 1.查看默认显卡驱动 [root@lo ...

  7. Linux安装NVIDIA显卡驱动并配置pytorch和tensorflow环境

    一.系统环境:Ubuntu18.04+显卡3090 双系统安装:Win10安装Ubuntu18.04双系统 二.安装NVIDIA显卡驱动: 1.进入BIOS禁用secure boot. 2.卸载原有的 ...

  8. 显卡RTX 3090运行pytorch报错CUDA error: no kernel image is available for execution on the device

    RuntimeError: CUDA error: no kernel image is available for execution on the device 安装适用于GeForce RTX ...

  9. amd和英伟达运行linux,27款AMD、NVIDIA显卡大战Linux

    27款AMD.NVIDIA显卡大战Linux 出处:快科技 2013-12-04 10:42:11     作者:上方文Q 编辑:上方文Q[爆料] 收藏文章 Phoronix近日组织了一次大规模显卡测 ...

最新文章

  1. 线程技术 ☞ Future模式
  2. 从0实现一个tiny-redux
  3. Lua string库整理
  4. java正则测试_Java的正则表达式
  5. 背景透明的 Dialog
  6. 第二十八期:Notepad++ 新 Logo 出炉,官网全新改版采用自适应设计
  7. python avg_python闭包
  8. 红帽linux5.5序列号,Redhat 5 安装序列号及版本说明
  9. ng-options
  10. android 布局长度单位深入研究
  11. mysql数据库基操,都坐下!
  12. java 实现excel与txt 相互转化
  13. 高薪利器:四大热门云计算认证推荐
  14. Udacity课程脉络-统计学基础(二)- t分布
  15. K8S报error: You must be logged in to the server错误
  16. C语言中delay的用法
  17. 系统部署在服务器,如何把系统部署在云服务器
  18. 创建基于vue的H5
  19. creo6.0安装教程
  20. 驾校机器人教练售价_驾校机器人教练温柔鼓励!网友:好怕它被我气死

热门文章

  1. cesium加载arcgis server地图服务
  2. 网络协议详解 :UDP
  3. GAN做衣服只需几天,完美生成复古小黑裙
  4. 办公:Word 2003的九个新奇玩法
  5. eclipse ssh mysql数据库_Eclipse搭建SSH环境实现Struts2分页显示mysql数据库表中内容...
  6. 算法竞赛入门经典(第二版)第二章教材代码
  7. clearInterval() 函数详解
  8. 固态硬盘的工作原理,固态硬盘掉电也能存储数据的原理
  9. Unity3d Webplayer 障蔽缓存机制
  10. 解读 8 位移位寄存器的设计