Auf dieser Seite finden Sie einen kurzen Überblick über Deep Learning Container und eine Anleitung für die ersten Schritte mit TensorFlow Enterprise mit einer lokalen Deep Learning Container-Instanz.
In diesem Beispiel erstellen und führen Sie eine TensorFlow Enterprise Deep Learning Containers-Instanz auf Ihrem lokalen Computer aus. Anschließend öffnen Sie ein JupyterLab-Notebook (standardmäßig in der Containerinstanz enthalten) und führen ein Klassifizierungstutorial zur Verwendung von neuronalen Netzwerken mit Keras aus.
Übersicht über Deep Learning Container
AI Platform Deep Learning Container sind eine Reihe von Docker-Containern, in denen wichtige Data-Science-Frameworks, -Bibliotheken und -Tools vorinstalliert sind. Diese Container bieten leistungsoptimierte, konsistente Umgebungen, mit denen Sie schnell Prototypen erstellen und Workflows implementieren können.
Hinweise
Führen Sie die folgenden Schritte aus, um die Google Cloud CLI und Docker zu installieren und Ihren lokalen Computer einzurichten.
gcloud CLI und Docker installieren
Führen Sie die folgenden Schritte aus, um die gcloud CLI und Docker auf Ihrem lokalen Computer zu installieren.
gcloud CLI auf Ihrem lokalen Computer herunterladen und installieren Sie können die gcloud CLI verwenden, um mit Ihrer Instanz zu interagieren.
Laden Sie Docker herunter und installieren Sie es.
Lokalen Computer einrichten
Führen Sie die folgenden Schritte aus, um Ihren lokalen Computer einzurichten.
Wenn Sie ein Linux-basiertes Betriebssystem wie Ubuntu oder Debian verwenden, fügen Sie der Gruppe
dockerIhren Nutzernamen mit dem folgenden Befehl hinzu, damit Sie Docker ohnesudoausführen können. Ersetzen Sie USERNAME durch Ihren Nutzernamen.sudo usermod -a -G docker USERNAMEMöglicherweise müssen Sie Ihr System neu starten, wenn Sie sich zur Gruppe
dockerhinzugefügt haben.Öffnen Sie Docker. Prüfen Sie mit dem folgenden Docker-Befehl, durch den die aktuelle Zeit und das aktuelle Datum zurückgegeben werden, ob Docker ausgeführt wird:
docker run busybox dateVerwenden Sie
gcloudals Credential Helper für Docker:gcloud auth configure-dockerOptional: Wenn Sie die GPU-fähigen Container verwenden möchten, müssen Sie eine mit CUDA 10 kompatible GPU, den zugehörigen Treiber und
nvidia-dockerinstalliert haben.
Deep Learning Container-Instanz erstellen
Führen Sie die folgenden Schritte aus, um eine TensorFlow Enterprise Deep Learning Container-Instanz für den gewünschten Typ des lokalen Containers zu erstellen.
Wenn Sie keinen GPU-fähigen Container verwenden müssen, verwenden Sie den folgenden Befehl. Ersetzen Sie /path/to/local/dir durch den Pfad zu dem lokalen Verzeichnis, das Sie verwenden möchten.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
Wenn Sie einen GPU-fähigen Container verwenden möchten, verwenden Sie den folgenden Befehl. Ersetzen Sie /path/to/local/dir durch den Pfad zu dem lokalen Verzeichnis, das Sie verwenden möchten.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
Dieser Befehl startet den Container im getrennten Modus, stellt das lokale Verzeichnis /path/to/local/dir zu /home im Container bereit und ordnet Port 8080 im Container Port 8080 auf Ihrem lokalen Computer zu.
JupyterLab-Notebook öffnen und Klassifizierungstutorial ausführen
Der Container ist vorkonfiguriert, um einen JupyterLab-Server zu starten. Führen Sie die folgenden Schritte aus, um ein JupyterLab-Notebook zu öffnen und ein Klassifizierungstutorial auszuführen.
Rufen Sie in Ihrem lokalen Browser http://localhost:8080 auf, um auf ein JupyterLab-Notebook zuzugreifen.
Doppelklicken Sie links auf tutorials, um den Ordner zu öffnen, und öffnen Sie dann tutorials/tf2_course/01_neural_nets_with_keras.ipynb.
Klicken Sie auf die Schaltfläche „Ausführen“ , um Zellen des Tutorials auszuführen.
Deep Learning Container-Instanz auf Google Cloudausführen
Wenn Sie Ihre TensorFlow Enterprise Deep Learning Containers-Instanz in einer Cloud-Umgebung ausführen möchten, finden Sie hier weitere Informationen zu Optionen zum Ausführen von Containern auf Google Cloud. Sie möchten Ihren Container beispielsweise in einem Google Kubernetes Engine-Cluster ausführen.
Nächste Schritte
- Weitere Informationen zu Deep Learning Containers
- Weitere Informationen zur Deep Learning Container-Community, in der Sie sich mit anderen Nutzern austauschen und Fragen zu Deep Learning Container stellen können.
- Erste Schritte mit TensorFlow Enterprise mit Deep Learning VM