將 TensorFlow 企業版與本機深度學習容器執行個體搭配使用

本頁簡要介紹深度學習容器,並說明如何開始將 TensorFlow 企業版與本機深度學習容器執行個體搭配使用。

在本範例中,您會在自己的電腦上建立並執行 TensorFlow 企業版深度學習容器執行個體。接著,您會開啟 JupyterLab 筆記本 (預設包含在容器執行個體中),並執行分類教學課程,瞭解如何搭配使用類神經網路和 Keras。

深度學習容器總覽

Deep Learning Containers 是一組 Docker 容器,已預先安裝重要的資料科學架構、程式庫和工具。這些容器提供效能最佳化的一致環境,協助您快速設計原型及實作工作流程。

事前準備

請完成下列步驟,安裝 Google Cloud CLI 和 Docker,然後設定本機電腦。

安裝 gcloud CLI 和 Docker

完成下列步驟,在本機電腦上安裝 gcloud CLI 和 Docker。

  1. 在本機下載並安裝 gcloud CLI。您可以使用 gcloud CLI 與執行個體介接。

  2. 下載並安裝 Docker

設定本機電腦

完成下列步驟,設定本機電腦。

  1. 如果您使用的是 Ubuntu、Debian 等以 Linux 為基礎的作業系統,請使用下列指令將您的使用者名稱加入 docker 群組,這樣就能在不使用 sudo 的情況下執行 Docker。將 USERNAME 替換成您的使用者名稱。

    sudo usermod -a -G docker USERNAME
    

    將自己加入 docker 群組後,您可能需要重新啟動系統。

  2. 開啟 Docker。如要確認 Docker 正在運作,請執行下列 Docker 指令,這個指令會傳回目前的時間和日期:

    docker run busybox date
    
  3. 使用 gcloud 做為 Docker 的憑證輔助程式:

    gcloud auth configure-docker
    
  4. 選用:如要使用支援 GPU 的容器,請確認您已安裝 CUDA 10 相容的 GPU、相關驅動程式和 nvidia-docker

建立深度學習容器執行個體

如要建立 TensorFlow 企業版深度學習容器執行個體,請針對要建立的本機容器類型完成下列步驟。

如果不需要使用支援 GPU 的容器,請使用下列指令。將 /path/to/local/dir 替換為您要使用的本機目錄路徑。

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

如要使用支援 GPU 的容器,請使用下列指令。將 /path/to/local/dir 替換為您要使用的本機目錄路徑。

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

這個指令會在卸離模式中啟動容器、將本機目錄 /path/to/local/dir 掛接到容器中的 /home,並將容器的通訊埠 8080 對應至本機電腦的通訊埠 8080。

開啟 JupyterLab 筆記本並執行分類教學課程

容器已預先設定為啟動 JupyterLab 伺服器。完成下列步驟,開啟 JupyterLab 筆記本並執行分類教學課程。

  1. 使用本機瀏覽器前往 http://localhost:8080,存取 JupyterLab 筆記本。

  2. 在左側按兩下「tutorials」開啟資料夾,然後前往並開啟「tutorials/tf2_course/01_neural_nets_with_keras.ipynb」

  3. 按一下執行按鈕 ,執行教學課程的儲存格。

在 Google Cloud上執行深度學習容器執行個體

如要在雲端環境中執行 TensorFlow 企業版深度學習容器執行個體,請進一步瞭解在 Google Cloud上執行容器的選項。舉例來說,您可能想在 Google Kubernetes Engine 叢集上執行容器

後續步驟