本页面简要介绍了 Deep Learning Containers,并说明了如何开始搭配使用 TensorFlow 企业版与本地 Deep Learning Containers 实例。
在此示例中,您将在本地机器上创建并运行 TensorFlow 企业版 Deep Learning Containers 实例。然后,您打开 JupyterLab 笔记本(默认包含在容器实例中),并运行有关将神经网络与 Keras 搭配使用的分类教程。
Deep Learning Containers 概览
Deep Learning Containers 是一组 Docker 容器,其中预安装了关键数据科学框架、库和工具。这些容器可为您提供性能更出色的一致环境,帮助您快速为工作流设计原型并加以实施。
准备工作
完成以下步骤,安装 Google Cloud CLI 和 Docker,然后设置本地机器。
安装 gcloud CLI 和 Docker
完成以下步骤,在本地机器上安装 gcloud CLI 和 Docker。
在本地机器上下载并安装 gcloud CLI。您可以使用 gcloud CLI 与实例进行交互。
设置本地机器
完成以下步骤,设置本地机器。
如果您使用的是基于 Linux 的操作系统(例如 Ubuntu 或 Debian),请使用以下命令将您的用户名添加到
docker群组,这样您就可以在不使用sudo的情况下运行 Docker。将 USERNAME 替换为您的用户名。sudo usermod -a -G docker USERNAME在将您自己添加到
docker群组之后,您可能需要重启系统。打开 Docker。若要确保 Docker 正在运行,请运行以下 Docker 命令,该命令返回当前时间和日期:
docker run busybox date使用
gcloud作为 Docker 的凭据帮助程序:gcloud auth configure-docker可选:如果您想使用启用了 GPU 的容器,请确保您已安装 CUDA 10 兼容的 GPU、关联的驱动程序
nvidia-docker。
创建 Deep Learning Containers 实例
如需创建 TensorFlow 企业版 Deep Learning Containers 实例,请针对要创建的本地容器类型完成以下步骤。
如果您不需要使用启用了 GPU 的容器,请使用以下命令。将 /path/to/local/dir 替换为您要使用的本地目录的路径。
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
如果您要使用启用了 GPU 的容器,请使用以下命令。将 /path/to/local/dir 替换为您要使用的本地目录的路径。
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
此命令会以分离模式启动容器,将本地目录 /path/to/local/dir 装载到容器中的 /home,并将容器上的端口 8080 映射到本地机器上的端口 8080。
打开 JupyterLab 笔记本并运行分类教程
该容器已预先配置为启动 JupyterLab 服务器。如需打开 JupyterLab 笔记本并运行分类教程,请完成以下步骤。
在本地浏览器中,访问 http://localhost:8080 以访问 JupyterLab 笔记本。
在左侧,双击 tutorials 以打开相应文件夹,然后找到并打开 tutorials/tf2_course/01_neural_nets_with_keras.ipynb。
点击运行按钮 以运行教程的单元。
在 Google Cloud上运行 Deep Learning Containers 实例
如需在云环境中运行 TensorFlow 企业版 Deep Learning Containers 实例,请详细了解在 Google Cloud上运行容器的选项。 例如,您可能希望在 Google Kubernetes Engine 集群上运行容器。
后续步骤
- 详细了解 Deep Learning Containers。
- 详细了解 Deep Learning Containers 社区,您可以在其中讨论有关 Deep Learning Containers 的问题并提出相关疑问。
- 开始将 TensorFlow 企业版与 Deep Learning VM 搭配使用。