En esta guía, se proporciona un ejemplo de cómo implementar y entregar un modelo de dispersión estable en Google Kubernetes Engine (GKE) mediante Ray Serve y el complemento Ray Operator como implementación de ejemplo.
Información acerca de Ray y Ray Serve
Ray es un framework de procesamiento escalable de código abierto para aplicaciones de IA/AA. Ray Serve es una biblioteca de entrega de modelos para Ray que se usa para el escalamiento y la entrega de modelos en un entorno distribuido. Para obtener más información, consulta Ray Serve en la documentación de Ray.
Puedes usar un recurso de RayCluster o RayService para implementar tus aplicaciones de Ray Serve. Debes usar un recurso de RayService en producción por los siguientes motivos:
- Actualizaciones locales para aplicaciones de RayService
- Actualización con tiempo de inactividad cero para recursos de RayCluster
- Aplicaciones de Ray Serve con alta disponibilidad
Objetivos
Esta guía está dirigida a clientes de IA generativa, usuarios nuevos o existentes de GKE, ingenieros de AA, ingenieros de MLOps (DevOps) o administradores de plataformas que estén interesados en el uso de las capacidades de organización de contenedores de Kubernetes para entregar modelos con Ray.
- Crea un clúster de GKE con un grupo de nodos de GPU.
- Crea un clúster de Ray con el recurso personalizado de RayCluster.
- Ejecuta una aplicación de Ray Serve.
- Implementa un recurso personalizado de RayService.
Costos
En este documento, usarás los siguientes componentes facturables de Google Cloud:
Para obtener una estimación de costos en función del uso previsto,
usa la calculadora de precios.
Cuando completes las tareas que se describen en este documento, podrás borrar los recursos que creaste para evitar que se te siga facturando. Para obtener más información, consulta Realiza una limpieza.
Antes de comenzar
Cloud Shell tiene preinstalado el software que necesitas para este
instructivo, incluidos kubectl
y gcloud CLI. Si no usas Cloud Shell,
debes instalar gcloud CLI.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
Install the Google Cloud CLI.
-
Si usas un proveedor de identidad externo (IdP), primero debes acceder a la gcloud CLI con tu identidad federada.
-
Para inicializar gcloud CLI, ejecuta el siguiente comando:
gcloud init -
Create or select a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_IDwith a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_IDwith your Google Cloud project name.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the GKE API:
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.gcloud services enable container.googleapis.com
-
Install the Google Cloud CLI.
-
Si usas un proveedor de identidad externo (IdP), primero debes acceder a la gcloud CLI con tu identidad federada.
-
Para inicializar gcloud CLI, ejecuta el siguiente comando:
gcloud init -
Create or select a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_IDwith a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_IDwith your Google Cloud project name.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the GKE API:
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.gcloud services enable container.googleapis.com
-
Grant roles to your user account. Run the following command once for each of the following IAM roles:
roles/container.clusterAdmin, roles/container.admingcloud projects add-iam-policy-binding PROJECT_ID --member="user:USER_IDENTIFIER" --role=ROLE
Replace the following:
PROJECT_ID: Your project ID.USER_IDENTIFIER: The identifier for your user account. For example,myemail@example.com.ROLE: The IAM role that you grant to your user account.
Para iniciar una sesión de Cloud Shell desde la Google Cloud consola, haz clic en
Activar Cloud Shell en la Google Cloud consola. Esto inicia una sesión en el panel inferior de la consola de Google Cloud .
Establece las variables de entorno:
export PROJECT_ID=PROJECT_ID export CLUSTER_NAME=rayserve-cluster export COMPUTE_REGION=us-central1 export COMPUTE_ZONE=us-central1-c export CLUSTER_VERSION=CLUSTER_VERSION export TUTORIAL_HOME=`pwd`Reemplaza lo siguiente:
PROJECT_ID: Es el Google Cloud ID del proyecto.CLUSTER_VERSION: la versión de GKE que se usará. Debe ser1.30.1o una versión posterior.
Clona el repositorio de GitHub:
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samplesCambia al directorio de trabajo:
cd kubernetes-engine-samples/ai-ml/gke-ray/rayserve/stable-diffusionCrea un entorno virtual de Python:
venv
python -m venv myenv && \ source myenv/bin/activateConda
Ejecuta los siguientes comandos:
conda create -c conda-forge python=3.9.19 -n myenv && \ conda activate myenv
Cuando implementas una aplicación de Serve con
serve run, Ray espera que la versión de Python del cliente local coincida con la versión que se usa en el clúster de Ray. La imagen derayproject/ray:2.37.0usa Python 3.9. Si ejecutas una versión diferente del cliente, selecciona la imagen de Ray adecuada.Instala las dependencias necesarias para ejecutar la aplicación de servicio:
pip install ray[serve]==2.37.0 pip install torch pip install requestsCrea un clúster estándar:
gcloud container clusters create ${CLUSTER_NAME} \ --addons=RayOperator \ --cluster-version=${CLUSTER_VERSION} \ --machine-type=c3d-standard-8 \ --location=${COMPUTE_ZONE} \ --num-nodes=1Crea un grupo de nodos de GPU
gcloud container node-pools create gpu-pool \ --cluster=${CLUSTER_NAME} \ --machine-type=g2-standard-8 \ --location=${COMPUTE_ZONE} \ --num-nodes=1 \ --accelerator type=nvidia-l4,count=1,gpu-driver-version=latestRevisa el siguiente manifiesto:
En este manifiesto, se describe un recurso de RayCluster.
Aplica el manifiesto al clúster:
kubectl apply -f ray-cluster.yamlVerifica que el recurso de RayCluster esté listo:
kubectl get rayclusterEl resultado es similar a este:
NAME DESIRED WORKERS AVAILABLE WORKERS CPUS MEMORY GPUS STATUS AGE stable-diffusion-cluster 2 2 6 20Gi 0 ready 33sEn este resultado,
readyen la columnaSTATUSindica que el recurso de RayCluster está listo.Verifica que GKE haya creado el servicio de RayCluster:
kubectl get svc stable-diffusion-cluster-head-svcEl resultado es similar a este:
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE pytorch-mnist-cluster-head-svc ClusterIP 34.118.238.247 <none> 10001/TCP,8265/TCP,6379/TCP,8080/TCP 109sEstablece sesiones de redirección de puertos al encabezado de Ray:
kubectl port-forward svc/stable-diffusion-cluster-head-svc 8265:8265 2>&1 >/dev/null & kubectl port-forward svc/stable-diffusion-cluster-head-svc 10001:10001 2>&1 >/dev/null &Verifica que el cliente de Ray pueda conectarse al clúster de Ray con localhost:
ray list nodes --address http://localhost:8265El resultado es similar a este:
======== List: 2024-06-19 15:15:15.707336 ======== Stats: ------------------------------ Total: 3 Table: ------------------------------ NODE_ID NODE_IP IS_HEAD_NODE STATE NODE_NAME RESOURCES_TOTAL LABELS 0 1d07447d7d124db641052a3443ed882f913510dbe866719ac36667d2 10.28.1.21 False ALIVE 10.28.1.21 CPU: 2.0 ray.io/node_id: 1d07447d7d124db641052a3443ed882f913510dbe866719ac36667d2 # Several lines of output omittedEjecuta la aplicación de Ray Serve de Stable Diffusion:
serve run stable_diffusion:entrypoint --working-dir=. --runtime-env-json='{"pip": ["torch", "torchvision", "diffusers==0.12.1", "huggingface_hub==0.25.2", "transformers", "fastapi==0.113.0"], "excludes": ["myenv"]}' --address ray://localhost:10001El resultado es similar a este:
2024-06-19 18:20:58,444 INFO scripts.py:499 -- Running import path: 'stable_diffusion:entrypoint'. 2024-06-19 18:20:59,730 INFO packaging.py:530 -- Creating a file package for local directory '.'. 2024-06-19 18:21:04,833 INFO handle.py:126 -- Created DeploymentHandle 'hyil6u9f' for Deployment(name='StableDiffusionV2', app='default'). 2024-06-19 18:21:04,834 INFO handle.py:126 -- Created DeploymentHandle 'xo25rl4k' for Deployment(name='StableDiffusionV2', app='default'). 2024-06-19 18:21:04,836 INFO handle.py:126 -- Created DeploymentHandle '57x9u4fp' for Deployment(name='APIIngress', app='default'). 2024-06-19 18:21:04,836 INFO handle.py:126 -- Created DeploymentHandle 'xr6kt85t' for Deployment(name='StableDiffusionV2', app='default'). 2024-06-19 18:21:04,836 INFO handle.py:126 -- Created DeploymentHandle 'g54qagbz' for Deployment(name='APIIngress', app='default'). 2024-06-19 18:21:19,139 INFO handle.py:126 -- Created DeploymentHandle 'iwuz00mv' for Deployment(name='APIIngress', app='default'). 2024-06-19 18:21:19,139 INFO api.py:583 -- Deployed app 'default' successfully.Establece una sesión de redirección de puertos al puerto de Ray Serve (8000):
kubectl port-forward svc/stable-diffusion-cluster-head-svc 8000:8000 2>&1 >/dev/null &Ejecuta la secuencia de comandos de Python:
python generate_image.pyLa secuencia de comandos genera una imagen en un archivo llamado
output.png. El resultado es similar al siguiente:
Revisa el siguiente manifiesto:
En este manifiesto, se describe un recurso personalizado de RayService.
Aplica el manifiesto al clúster:
kubectl apply -f ray-service.yamlVerifica que el servicio esté listo:
kubectl get svc stable-diffusion-serve-svcEl resultado es similar a este:
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE stable-diffusion-serve-svc ClusterIP 34.118.236.0 <none> 8000/TCP 31mConfigura la redirección de puertos al servicio de Ray Serve:
kubectl port-forward svc/stable-diffusion-serve-svc 8000:8000 2>&1 >/dev/null &Ejecuta la secuencia de comandos de Python de la sección anterior:
python generate_image.pyLa secuencia de comandos genera una imagen similar a la que se generó en la sección anterior.
- Explora arquitecturas de referencia, diagramas y prácticas recomendadas sobre Google Cloud. Consulta nuestro Cloud Architecture Center.
Prepara el entorno
Para preparar tu entorno, sigue estos pasos:
Crea un clúster con un grupo de nodos de GPU
Crea un clúster de GKE Autopilot o Standard con un grupo de nodos de GPU:
Autopilot
Crea un clúster de Autopilot:
gcloud container clusters create-auto ${CLUSTER_NAME} \
--enable-ray-operator \
--cluster-version=${CLUSTER_VERSION} \
--location=${COMPUTE_REGION}
Estándar
Implementa un recurso de RayCluster
Para implementar un recurso de RayCluster, haz lo siguiente:
Conéctate al recurso de RayCluster
Para conectarte al recurso de RayCluster, sigue estos pasos:
Ejecuta una aplicación de Ray Serve
Para ejecutar una aplicación de Ray Serve, haz lo siguiente:
Implementa un RayService
El recurso personalizado de RayService administra el ciclo de vida de un recurso de RayCluster y la aplicación Ray Serve.
Para obtener más información sobre RayService, consulta Cómo implementar aplicaciones de Ray Serve y la Guía de producción en la documentación de Ray.
Para implementar un recurso de RayService, sigue estos pasos:
Observa tus cargas de trabajo de Ray
Para ver los detalles de tus RayJobs, puedes navegar a la sección Kubernetes Engine > AI/ML > Jobs en la Google Cloud consola.
Realiza una limpieza
Borra el proyecto
Delete a Google Cloud project:
gcloud projects delete PROJECT_ID
Borra los recursos individuales
Para borrar el clúster, escribe lo siguiente:
gcloud container clusters delete ${CLUSTER_NAME}