本頁簡要介紹深度學習容器,並說明如何開始將 TensorFlow 企業版與本機深度學習容器執行個體搭配使用。
在本範例中,您會在自己的電腦上建立並執行 TensorFlow 企業版深度學習容器執行個體。接著,您會開啟 JupyterLab 筆記本 (預設包含在容器執行個體中),並執行分類教學課程,瞭解如何搭配使用類神經網路和 Keras。
深度學習容器總覽
Deep Learning Containers 是一組 Docker 容器,已預先安裝重要的資料科學架構、程式庫和工具。這些容器提供效能最佳化的一致環境,協助您快速設計原型及實作工作流程。
事前準備
請完成下列步驟,安裝 Google Cloud CLI 和 Docker,然後設定本機電腦。
安裝 gcloud CLI 和 Docker
完成下列步驟,在本機電腦上安裝 gcloud CLI 和 Docker。
在本機下載並安裝 gcloud CLI。您可以使用 gcloud CLI 與執行個體介接。
設定本機電腦
完成下列步驟,設定本機電腦。
如果您使用的是 Ubuntu、Debian 等以 Linux 為基礎的作業系統,請使用下列指令將您的使用者名稱加入
docker群組,這樣就能在不使用sudo的情況下執行 Docker。將 USERNAME 替換成您的使用者名稱。sudo usermod -a -G docker USERNAME將自己加入
docker群組後,您可能需要重新啟動系統。開啟 Docker。如要確認 Docker 正在運作,請執行下列 Docker 指令,這個指令會傳回目前的時間和日期:
docker run busybox date使用
gcloud做為 Docker 的憑證輔助程式:gcloud auth configure-docker選用:如要使用支援 GPU 的容器,請確認您已安裝 CUDA 10 相容的 GPU、相關驅動程式和
nvidia-docker。
建立深度學習容器執行個體
如要建立 TensorFlow 企業版深度學習容器執行個體,請針對要建立的本機容器類型完成下列步驟。
如果不需要使用支援 GPU 的容器,請使用下列指令。將 /path/to/local/dir 替換為您要使用的本機目錄路徑。
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
如要使用支援 GPU 的容器,請使用下列指令。將 /path/to/local/dir 替換為您要使用的本機目錄路徑。
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
這個指令會在卸離模式中啟動容器、將本機目錄 /path/to/local/dir 掛接到容器中的 /home,並將容器的通訊埠 8080 對應至本機電腦的通訊埠 8080。
開啟 JupyterLab 筆記本並執行分類教學課程
容器已預先設定為啟動 JupyterLab 伺服器。完成下列步驟,開啟 JupyterLab 筆記本並執行分類教學課程。
使用本機瀏覽器前往 http://localhost:8080,存取 JupyterLab 筆記本。
在左側按兩下「tutorials」開啟資料夾,然後前往並開啟「tutorials/tf2_course/01_neural_nets_with_keras.ipynb」。
按一下執行按鈕 ,執行教學課程的儲存格。
在 Google Cloud上執行深度學習容器執行個體
如要在雲端環境中執行 TensorFlow 企業版深度學習容器執行個體,請進一步瞭解在 Google Cloud上執行容器的選項。舉例來說,您可能想在 Google Kubernetes Engine 叢集上執行容器。
後續步驟
- 進一步瞭解深度學習容器。
- 進一步瞭解 Deep Learning Containers 社群,您可以在這裡討論 Deep Learning Containers 並提出相關問題。
- 開始將 TensorFlow 企業版與深度學習 VM 搭配使用。