Questa pagina fornisce una breve panoramica di Deep Learning Containers e descrive come iniziare a utilizzare TensorFlow Enterprise con un'istanza locale di Deep Learning Containers.
In questo esempio, crei ed esegui un'istanza di TensorFlow Enterprise Deep Learning Containers sulla tua macchina locale. Poi apri un notebook JupyterLab (incluso per impostazione predefinita nell'istanza del container) ed esegui un tutorial di classificazione sull'utilizzo delle reti neurali con Keras.
Panoramica di Deep Learning Containers
Deep Learning Containers è un insieme di container Docker con framework, librerie e strumenti di data science chiave preinstallati. Questi container forniscono ambienti coerenti e ottimizzati per le prestazioni che possono aiutarti a creare prototipi e implementare workflow rapidamente.
Prima di iniziare
Completa i seguenti passaggi per installare Google Cloud CLI e Docker, quindi configura la tua macchina locale.
Installa gcloud CLI e Docker
Completa questi passaggi per installare gcloud CLI e Docker sulla tua macchina locale.
Scarica e installa gcloud CLI sulla tua macchina locale. Puoi utilizzare gcloud CLI per interagire con la tua istanza.
Configura la macchina locale
Completa questi passaggi per configurare la tua macchina locale.
Se utilizzi un sistema operativo basato su Linux, come Ubuntu o Debian, utilizza il seguente comando per aggiungere il tuo nome utente al gruppo
dockerin modo da poter eseguire Docker senza utilizzaresudo. Sostituisci USERNAME con il tuo nome utente.sudo usermod -a -G docker USERNAMEPotresti dover riavviare il sistema dopo esserti aggiunto al gruppo
docker.Apri Docker. Per assicurarti che Docker sia in esecuzione, esegui il seguente comando Docker, che restituisce la data e l'ora correnti:
docker run busybox dateUtilizza
gcloudcome assistente per le credenziali per Docker:gcloud auth configure-docker(Facoltativo): se vuoi utilizzare i container abilitati per GPU, assicurati di avere una GPU compatibile con CUDA 10, il driver associato,
nvidia-dockerinstallato.
Crea un'istanza Deep Learning Containers
Per creare un'istanza di TensorFlow Enterprise Deep Learning Containers, completa i seguenti passaggi per il tipo di container locale che vuoi creare.
Se non devi utilizzare un container abilitato alla GPU, utilizza il seguente comando. Sostituisci /path/to/local/dir con il percorso della directory locale che vuoi utilizzare.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
Se vuoi utilizzare un container abilitato per GPU, utilizza il seguente comando. Sostituisci /path/to/local/dir con il percorso della directory locale che vuoi utilizzare.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
Questo comando avvia il container in modalità detached, monta la directory locale /path/to/local/dir su /home nel container e mappa la porta 8080 sul container alla porta 8080 sulla tua macchina locale.
Apri un notebook JupyterLab ed esegui un tutorial sulla classificazione
Il contenitore è preconfigurato per avviare un server JupyterLab. Completa questi passaggi per aprire un notebook JupyterLab ed eseguire un tutorial sulla classificazione.
Nel browser locale, visita http://localhost:8080 per accedere a un notebook JupyterLab.
A sinistra, fai doppio clic su tutorials per aprire la cartella e vai a tutorials/tf2_course/01_neural_nets_with_keras.ipynb e aprilo.
Fai clic sul pulsante Esegui per eseguire le celle del tutorial.
Esecuzione dell'istanza Deep Learning Containers su Google Cloud
Per eseguire l'istanza di TensorFlow Enterprise Deep Learning Containers in un ambiente cloud, scopri di più sulle opzioni per l'esecuzione di container su Google Cloud. Ad esempio, potresti voler eseguire il container su un cluster Google Kubernetes Engine.
Passaggi successivi
- Scopri di più su Deep Learning Containers.
- Scopri di più sulla community di Deep Learning Containers, dove puoi discutere e porre domande su Deep Learning Containers.
- Inizia a utilizzare TensorFlow Enterprise con Deep Learning VM.