TensorFlow Enterprise mit einer lokalen Deep Learning Container-Instanz verwenden

Auf dieser Seite finden Sie einen kurzen Überblick über Deep Learning Container und eine Anleitung für die ersten Schritte mit TensorFlow Enterprise mit einer lokalen Deep Learning Container-Instanz.

In diesem Beispiel erstellen und führen Sie eine TensorFlow Enterprise Deep Learning Containers-Instanz auf Ihrem lokalen Computer aus. Anschließend öffnen Sie ein JupyterLab-Notebook (standardmäßig in der Containerinstanz enthalten) und führen ein Klassifizierungstutorial zur Verwendung von neuronalen Netzwerken mit Keras aus.

Übersicht über Deep Learning Container

AI Platform Deep Learning Container sind eine Reihe von Docker-Containern, in denen wichtige Data-Science-Frameworks, -Bibliotheken und -Tools vorinstalliert sind. Diese Container bieten leistungsoptimierte, konsistente Umgebungen, mit denen Sie schnell Prototypen erstellen und Workflows implementieren können.

Hinweise

Führen Sie die folgenden Schritte aus, um die Google Cloud CLI und Docker zu installieren und Ihren lokalen Computer einzurichten.

gcloud CLI und Docker installieren

Führen Sie die folgenden Schritte aus, um die gcloud CLI und Docker auf Ihrem lokalen Computer zu installieren.

  1. gcloud CLI auf Ihrem lokalen Computer herunterladen und installieren Sie können die gcloud CLI verwenden, um mit Ihrer Instanz zu interagieren.

  2. Laden Sie Docker herunter und installieren Sie es.

Lokalen Computer einrichten

Führen Sie die folgenden Schritte aus, um Ihren lokalen Computer einzurichten.

  1. Wenn Sie ein Linux-basiertes Betriebssystem wie Ubuntu oder Debian verwenden, fügen Sie der Gruppe docker Ihren Nutzernamen mit dem folgenden Befehl hinzu, damit Sie Docker ohne sudo ausführen können. Ersetzen Sie USERNAME durch Ihren Nutzernamen.

    sudo usermod -a -G docker USERNAME
    

    Möglicherweise müssen Sie Ihr System neu starten, wenn Sie sich zur Gruppe docker hinzugefügt haben.

  2. Öffnen Sie Docker. Prüfen Sie mit dem folgenden Docker-Befehl, durch den die aktuelle Zeit und das aktuelle Datum zurückgegeben werden, ob Docker ausgeführt wird:

    docker run busybox date
    
  3. Verwenden Sie gcloud als Credential Helper für Docker:

    gcloud auth configure-docker
    
  4. Optional: Wenn Sie die GPU-fähigen Container verwenden möchten, müssen Sie eine mit CUDA 10 kompatible GPU, den zugehörigen Treiber und nvidia-docker installiert haben.

Deep Learning Container-Instanz erstellen

Führen Sie die folgenden Schritte aus, um eine TensorFlow Enterprise Deep Learning Container-Instanz für den gewünschten Typ des lokalen Containers zu erstellen.

Wenn Sie keinen GPU-fähigen Container verwenden müssen, verwenden Sie den folgenden Befehl. Ersetzen Sie /path/to/local/dir durch den Pfad zu dem lokalen Verzeichnis, das Sie verwenden möchten.

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

Wenn Sie einen GPU-fähigen Container verwenden möchten, verwenden Sie den folgenden Befehl. Ersetzen Sie /path/to/local/dir durch den Pfad zu dem lokalen Verzeichnis, das Sie verwenden möchten.

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

Dieser Befehl startet den Container im getrennten Modus, stellt das lokale Verzeichnis /path/to/local/dir zu /home im Container bereit und ordnet Port 8080 im Container Port 8080 auf Ihrem lokalen Computer zu.

JupyterLab-Notebook öffnen und Klassifizierungstutorial ausführen

Der Container ist vorkonfiguriert, um einen JupyterLab-Server zu starten. Führen Sie die folgenden Schritte aus, um ein JupyterLab-Notebook zu öffnen und ein Klassifizierungstutorial auszuführen.

  1. Rufen Sie in Ihrem lokalen Browser http://localhost:8080 auf, um auf ein JupyterLab-Notebook zuzugreifen.

  2. Doppelklicken Sie links auf tutorials, um den Ordner zu öffnen, und öffnen Sie dann tutorials/tf2_course/01_neural_nets_with_keras.ipynb.

  3. Klicken Sie auf die Schaltfläche „Ausführen“ , um Zellen des Tutorials auszuführen.

Deep Learning Container-Instanz auf Google Cloudausführen

Wenn Sie Ihre TensorFlow Enterprise Deep Learning Containers-Instanz in einer Cloud-Umgebung ausführen möchten, finden Sie hier weitere Informationen zu Optionen zum Ausführen von Containern auf Google Cloud. Sie möchten Ihren Container beispielsweise in einem Google Kubernetes Engine-Cluster ausführen.

Nächste Schritte