对于 docker,我们需要从 Docker 获取 docker-ce 版本,而不是 Ubuntu 自带的 docker.io 包。可以使用以下脚本完成(https://docs.docker.com/engine/installation/linux/ubuntu/)(https://docs.docker.com/engine/installation/linux/ubuntu/%EF%BC%89): #/bin/bash # install packages to allow apt to use a repository over HTTPS: sudo apt-get -y install apt-transport-https ca-certificates curl software-properties-common # add Docker』s official GPG key: curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add - # set up the Docker stable repository. sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" # update the apt package index: sudo apt-get -y update # finally, install docker sudo apt-get -y install docker-ce 或使用我的: wget -O - -q 'https://gist.githubusercontent.com/allenday/c875eaf21a2b416f6478c0a48e428f6a/raw/f7feca1acc1a992afa84f347394fd7e4bfac2599/install-docker-ce.sh' | sudo bash 从 deb 文件安装 nvidia-docker(https://github.com/NVIDIA/nvidia-docker/releases/): wget https://github.com/NVIDIA/nvidia-docker/releases/download/v1.0.1/nvidia-docker_1.0.1-1_amd64.deb 从 Docker 容器确认 GPU 是可用的 起始化 nvidia-docker-plugin 需要在跟权限下运行: sudo nvidia-docker-plugin & nvidia-docker-plugin | 2017/06/07 01:05:05 Loading NVIDIA unified memory nvidia-docker-plugin | 2017/06/07 01:05:05 Loading NVIDIA management library nvidia-docker-plugin | 2017/06/07 01:05:08 Discovering GPU devices nvidia-docker-plugin | 2017/06/07 01:05:08 Provisioning volumes at /var/lib/nvidia-docker/volumes nvidia-docker-plugin | 2017/06/07 01:05:08 Serving plugin API at /run/docker/plugins nvidia-docker-plugin | 2017/06/07 01:05:08 Serving remote API at localhost:3476 现在确保 docker 容器可以看到 GPU: sudo nvidia-docker run --rm nvidia/cuda nvidia-smi 如上图所示,现在得到的表格和前面使用 nvidia-smi 命令,且没有在 Docker 容器里运行得到的表格是一样的。 创建一个 Snapshot 卷 如果你跟着上面运行下来了,你可能注意到它需要花费一点时间。而当我们运行 GPU 实例时,那成本就比较大了。所以我们需要避免重复以上过程浪费时间和内存,我们可以将以上过程做一个整合,当我们需要启动 GPU 时就可以直接使用。 登陆 Jupyter 和 TensorBoard sudo nvidia-docker run --rm --name tf1 -p 8888:8888 -p 6006:6006 gcr.io/tensorflow/tensorflow:latest-gpu jupyter notebook --allow-root 上面命令可以展示为一个链接: :8888/?token=c8caba947dfd4c97414447c074325faf399cf8a157d0ce2f 最后寻找一个 GCE 实例的外部 IP 地址,并将它连接到端口 8888,即 :8888/,从你的控制台键入类似的符号,现在你就拥有了一个可以在 GPU 上运行 TensorFlow 的 Jupyter notebook。 原文链接:https://medium.com/google-cloud/jupyter-tensorflow-nvidia-gpu-docker-google-compute-engine-4a146f085f17 本文为机器之心编译,转载请联系本公众号获得授权。 ✄------------------------------------------------ 加入机器之心(全职记者/实习生):[email protected] 投稿或寻求报道:[email protected] 广告&商务合作:[email protected] (责任编辑:本港台直播) |