Cette page présente brièvement les Conteneurs de Deep Learning et explique comment commencer à utiliser TensorFlow Enterprise avec une instance locale de Conteneurs de Deep Learning.
Dans cet exemple, vous allez créer et exécuter une instance de conteneurs de deep learning TensorFlow Enterprise sur votre ordinateur local. Vous ouvrez ensuite un notebook JupyterLab (inclus par défaut dans l'instance de conteneur) et exécutez un tutoriel de classification sur l'utilisation de réseaux de neurones avec Keras.
Présentation des conteneurs de deep learning
Les conteneurs de deep learning sont un ensemble de conteneurs Docker avec des frameworks de science de données, des bibliothèques et des outils pré-installés. Ces conteneurs fournissent des environnements cohérents et optimisés pour les performances, qui peuvent vous aider à créer des prototypes et à mettre en œuvre rapidement des workflows.
Avant de commencer
Suivez les étapes ci-dessous pour installer la Google Cloud CLI et Docker, puis configurer votre ordinateur local.
Installer gcloud CLI et Docker
Suivez ces étapes pour installer la gcloud CLI et Docker sur votre ordinateur local.
Téléchargez et installez la gcloud CLI sur votre machine locale. Vous pouvez utiliser gcloud CLI pour interagir avec votre instance.
Configurer votre machine locale
Pour configurer votre ordinateur local, procédez comme suit :
Si vous utilisez un système d'exploitation Linux, tel qu'Ubuntu ou Debian, utilisez la commande suivante pour ajouter votre nom d'utilisateur au groupe
dockerafin de pouvoir exécuter Docker sans utilisersudo. Remplacez USERNAME par votre nom d'utilisateur.sudo usermod -a -G docker USERNAMEUne fois que vous vous serez ajouté au groupe
docker, vous devrez peut-être redémarrer votre système.Ouvrez Docker. Pour vérifier que Docker est en cours d'exécution, exécutez la commande Docker suivante, qui renvoie la date et l'heure actuelles :
docker run busybox dateUtilisez
gcloudcomme assistant d'identification pour Docker :gcloud auth configure-dockerFacultatif : Si vous souhaitez utiliser les conteneurs compatibles avec les GPU, assurez-vous d'avoir installé un GPU compatible avec CUDA 10, le pilote associé
nvidia-docker.
Créer une instance de conteneurs de deep learning
Pour créer une instance TensorFlow Enterprise Deep Learning Containers, procédez comme suit pour le type de conteneur local que vous souhaitez créer.
Si vous n'avez pas besoin d'utiliser un conteneur compatible GPU, exécutez la commande suivante. Remplacez /path/to/local/dir par le chemin d'accès au répertoire local que vous souhaitez utiliser.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
Si vous souhaitez utiliser un conteneur compatible GPU, utilisez la commande suivante. Remplacez /path/to/local/dir par le chemin d'accès au répertoire local que vous souhaitez utiliser.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
Cette commande démarre le conteneur en mode dissocié, installe le répertoire local /path/to/local/dir dans /home dans le conteneur, et mappe le port 8080 du conteneur au port 8080 de votre ordinateur local.
Ouvrir un notebook JupyterLab et exécuter un tutoriel de classification
Le conteneur est préconfiguré pour démarrer un serveur JupyterLab. Pour ouvrir un notebook JupyterLab et exécuter un tutoriel de classification, procédez comme suit.
Dans votre navigateur local, saisissez l'adresse http://localhost:8080 pour accéder à un notebook JupyterLab.
Sur la gauche, double-cliquez sur tutorials pour ouvrir le dossier, puis accédez à tutorials/tf2_course/01_neural_nets_with_keras.ipynb et ouvrez-le.
Cliquez sur le bouton d'exécution pour exécuter les cellules du tutoriel.
Exécuter votre instance de conteneurs de deep learning sur Google Cloud
Pour exécuter votre instance TensorFlow Enterprise Deep Learning Containers dans un environnement cloud, découvrez les options d'exécution de conteneurs sur Google Cloud. Par exemple, vous pouvez exécuter votre conteneur sur un cluster Google Kubernetes Engine.
Étapes suivantes
- En savoir plus sur les conteneurs de Deep Learning
- En savoir plus sur la communauté des conteneurs de deep learning, où vous pouvez discuter et poser des questions sur les conteneurs de deep learning.
- Commencez à utiliser TensorFlow Enterprise avec une VM de deep learning.