En esta página, se proporciona una breve descripción general de los contenedores de aprendizaje profundo y se describe cómo comenzar a usar TensorFlow Enterprise con una instancia local de contenedores de aprendizaje profundo.
En este ejemplo, crearás y ejecutarás una instancia de contenedores de aprendizaje profundo de TensorFlow Enterprise en tu máquina local. Luego, abres un notebook de JupyterLab (incluido de forma predeterminada en la instancia del contenedor) y ejecutas un instructivo de clasificación sobre el uso de redes neuronales con Keras.
Descripción general de los contenedores de aprendizaje profundo
Los contenedores de aprendizaje profundo son un conjunto de contenedores de Docker que tienen preinstalados herramientas, bibliotecas y frameworks clave de ciencia de datos. Estos contenedores te brindan entornos coherentes y optimizados para el rendimiento que pueden ayudarte a crear prototios e implementar rápidamente flujos de trabajo.
Antes de comenzar
Completa los siguientes pasos para instalar Google Cloud CLI y Docker, y, luego, configura tu máquina local.
Instala gcloud CLI y Docker
Completa estos pasos para instalar gcloud CLI y Docker en tu máquina local.
Descarga e instala la CLI de gcloud en tu máquina local. Puedes usar gcloud CLI para interactuar con tu instancia.
Configura tu máquina local
Completa estos pasos para configurar tu máquina local.
Si usas un sistema operativo basado en Linux, como Ubuntu o Debian, usa el siguiente comando para agregar tu nombre de usuario al grupo
dockerpara que puedas ejecutar Docker sin usarsudo. Reemplaza USERNAME por tu nombre de usuario.sudo usermod -a -G docker USERNAMEEs posible que debas reiniciar tu sistema después de agregarte al grupo
docker.Abre Docker. Para garantizar que Docker esté en funcionamiento, ejecuta el siguiente comando de Docker, que muestra la hora y la fecha actuales:
docker run busybox dateUsa
gcloudcomo auxiliar de credenciales para Docker:gcloud auth configure-dockerOpcional: Si deseas usar los contenedores habilitados para GPU, asegúrate de tener una GPU compatible con CUDA 10, el controlador asociado y
nvidia-dockerinstalado.
Crea una instancia de contenedores de aprendizaje profundo
Para crear una instancia de contenedores de aprendizaje profundo de TensorFlow Enterprise, completa los siguientes pasos para el tipo de contenedor local que deseas crear.
Si no necesitas usar un contenedor habilitado para GPU, usa el siguiente comando. Reemplaza /path/to/local/dir por la ruta de acceso al directorio local que deseas usar.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
Si deseas usar un contenedor habilitado para GPU, usa el siguiente comando. Reemplaza /path/to/local/dir por la ruta de acceso al directorio local que deseas usar.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
Con este comando, se inicia el contenedor en modo desconectado, se activa el directorio local /path/to/local/dir en /home en el contenedor y se asigna el puerto 8080 en el contenedor al puerto 8080 de tu máquina local.
Abre un notebook de JupyterLab y ejecuta un instructivo de clasificación
El contenedor está preconfigurado para iniciar un servidor de JupyterLab. Completa estos pasos para abrir un notebook de JupyterLab y ejecutar un instructivo de clasificación.
En tu navegador local, visita http://localhost:8080 para acceder a un notebook de JupyterLab.
A la izquierda, haz doble clic en tutorials para abrir la carpeta y navega hasta tutorials/tf2_course/01_neural_nets_with_keras.ipynb para abrirlo.
Haz clic en el botón de ejecución para ejecutar las celdas del instructivo.
Cómo ejecutar tu instancia de contenedores de aprendizaje profundo en Google Cloud
Para ejecutar tu instancia de Deep Learning Containers de TensorFlow Enterprise en un entorno de nube, obtén más información sobre las opciones para ejecutar contenedores en Google Cloud. Por ejemplo, es posible que desees ejecutar tu contenedor en un clúster de Google Kubernetes Engine.
¿Qué sigue?
- Obtén más información sobre los Deep Learning Containers.
- Obtén más información sobre la comunidad de Deep Learning Containers, donde puedes debatir y hacer preguntas sobre los contenedores de aprendizaje profundo.
- Comienza a usar TensorFlow Enterprise con una VM de aprendizaje profundo.