Utiliser TensorFlow Enterprise avec une instance locale de conteneurs de deep learning

Cette page présente brièvement les Conteneurs de Deep Learning et explique comment commencer à utiliser TensorFlow Enterprise avec une instance locale de Conteneurs de Deep Learning.

Dans cet exemple, vous allez créer et exécuter une instance de conteneurs de deep learning TensorFlow Enterprise sur votre ordinateur local. Vous ouvrez ensuite un notebook JupyterLab (inclus par défaut dans l'instance de conteneur) et exécutez un tutoriel de classification sur l'utilisation de réseaux de neurones avec Keras.

Présentation des conteneurs de deep learning

Les conteneurs de deep learning sont un ensemble de conteneurs Docker avec des frameworks de science de données, des bibliothèques et des outils pré-installés. Ces conteneurs fournissent des environnements cohérents et optimisés pour les performances, qui peuvent vous aider à créer des prototypes et à mettre en œuvre rapidement des workflows.

Avant de commencer

Suivez les étapes ci-dessous pour installer la Google Cloud CLI et Docker, puis configurer votre ordinateur local.

Installer gcloud CLI et Docker

Suivez ces étapes pour installer la gcloud CLI et Docker sur votre ordinateur local.

  1. Téléchargez et installez la gcloud CLI sur votre machine locale. Vous pouvez utiliser gcloud CLI pour interagir avec votre instance.

  2. Téléchargez et installez Docker.

Configurer votre machine locale

Pour configurer votre ordinateur local, procédez comme suit :

  1. Si vous utilisez un système d'exploitation Linux, tel qu'Ubuntu ou Debian, utilisez la commande suivante pour ajouter votre nom d'utilisateur au groupe docker afin de pouvoir exécuter Docker sans utiliser sudo. Remplacez USERNAME par votre nom d'utilisateur.

    sudo usermod -a -G docker USERNAME
    

    Une fois que vous vous serez ajouté au groupe docker, vous devrez peut-être redémarrer votre système.

  2. Ouvrez Docker. Pour vérifier que Docker est en cours d'exécution, exécutez la commande Docker suivante, qui renvoie la date et l'heure actuelles :

    docker run busybox date
    
  3. Utilisez gcloud comme assistant d'identification pour Docker :

    gcloud auth configure-docker
    
  4. Facultatif : Si vous souhaitez utiliser les conteneurs compatibles avec les GPU, assurez-vous d'avoir installé un GPU compatible avec CUDA 10, le pilote associé nvidia-docker.

Créer une instance de conteneurs de deep learning

Pour créer une instance TensorFlow Enterprise Deep Learning Containers, procédez comme suit pour le type de conteneur local que vous souhaitez créer.

Si vous n'avez pas besoin d'utiliser un conteneur compatible GPU, exécutez la commande suivante. Remplacez /path/to/local/dir par le chemin d'accès au répertoire local que vous souhaitez utiliser.

docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-cpu.2-3

Si vous souhaitez utiliser un conteneur compatible GPU, utilisez la commande suivante. Remplacez /path/to/local/dir par le chemin d'accès au répertoire local que vous souhaitez utiliser.

docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
  gcr.io/deeplearning-platform-release/tf2-gpu.2-3

Cette commande démarre le conteneur en mode dissocié, installe le répertoire local /path/to/local/dir dans /home dans le conteneur, et mappe le port 8080 du conteneur au port 8080 de votre ordinateur local.

Ouvrir un notebook JupyterLab et exécuter un tutoriel de classification

Le conteneur est préconfiguré pour démarrer un serveur JupyterLab. Pour ouvrir un notebook JupyterLab et exécuter un tutoriel de classification, procédez comme suit.

  1. Dans votre navigateur local, saisissez l'adresse http://localhost:8080 pour accéder à un notebook JupyterLab.

  2. Sur la gauche, double-cliquez sur tutorials pour ouvrir le dossier, puis accédez à tutorials/tf2_course/01_neural_nets_with_keras.ipynb et ouvrez-le.

  3. Cliquez sur le bouton d'exécution  pour exécuter les cellules du tutoriel.

Exécuter votre instance de conteneurs de deep learning sur Google Cloud

Pour exécuter votre instance TensorFlow Enterprise Deep Learning Containers dans un environnement cloud, découvrez les options d'exécution de conteneurs sur Google Cloud. Par exemple, vous pouvez exécuter votre conteneur sur un cluster Google Kubernetes Engine.

Étapes suivantes