Google Cloud se enfoca en proporcionar infraestructura de inteligencia artificial (IA) de primer nivel para potenciar tus cargas de trabajo más exigentes aceleradas por GPU en una amplia variedad de segmentos. Puedes usar GPUs en Google Cloud para ejecutar aplicaciones de IA, aprendizaje automático (AA), científicas, de análisis, de ingeniería, para consumidores y empresariales.
Gracias a nuestra asociación con NVIDIA, Google Cloud ofrece las GPUs más recientes y optimiza la pila de software con una amplia variedad de opciones de almacenamiento y redes. Para obtener una lista completa de las GPUs disponibles, consulta Plataformas de GPU.
En las siguientes secciones, se describen los beneficios de las GPUs en Google Cloud.
VMs aceleradas por GPU
En Google Cloud, puedes acceder a las GPUs y aprovisionarlas de la manera que mejor se adapte a tus necesidades. Hay disponible una familia de máquinas optimizadas para aceleradores especializada, con GPU conectadas previamente y capacidades de redes ideales para maximizar el rendimiento. Están disponibles en las series de máquinas A4X, A4, A3, A2 y G2.
Varias opciones de aprovisionamiento
Puedes aprovisionar clústeres con la familia de máquinas optimizadas para aceleradores con cualquiera de los siguientes productos de código abierto o Google Cloud .
Vertex AI
Vertex AI es una plataforma de aprendizaje automático (AA) completamente administrada que puedes usar para entrenar e implementar modelos de AA y aplicaciones de IA. En las aplicaciones de Vertex AI, puedes usar VMs aceleradas por GPU para mejorar el rendimiento de las siguientes maneras:
- Usa VMs habilitadas para GPU en grupos de trabajadores de GKE de entrenamiento personalizados.
- Usa modelos de LLM de código abierto de Vertex AI Model Garden.
- Reduce la latencia de la predicción.
- Mejora el rendimiento del código de los notebooks de Vertex AI Workbench.
- Mejorar el rendimiento de un entorno de ejecución de Colab Enterprise
de Google Cloud
AI Hypercomputer es un sistema de supercomputación optimizado para admitir tus cargas de trabajo de inteligencia artificial (IA) y aprendizaje automático (AA). Es un sistema integrado de hardware optimizado para el rendimiento, software abierto, frameworks de AA y modelos de consumo flexibles. AI Hypercomputer incluye funciones y servicios diseñados para permitirte implementar y administrar grandes cantidades, hasta decenas de miles, de recursos de aceleración y redes que funcionan como una sola unidad homogénea. Esta opción es ideal para crear una infraestructura optimizada para el rendimiento y con asignación densa que tenga integraciones para los programadores de Google Kubernetes Engine (GKE) y Slurm. Para obtener más información, consulta la descripción general de AI Hypercomputer.
Para comenzar a usar Cluster Director, consulta Elige una estrategia de implementación.
Compute Engine
También puedes crear y administrar VMs individuales o clústeres pequeños de VMs con GPU conectadas en Compute Engine. Este método se utiliza principalmente para ejecutar cargas de trabajo con uso intensivo de gráficos, cargas de trabajo de simulación o entrenamiento de modelos de AA a pequeña escala.
En la siguiente tabla, se muestran los métodos que puedes usar para crear VMs con GPUs conectadas:
Opción de implementación |
Guías de implementación |
Crea una VM para cargas de trabajo de servicio y de un solo nodo |
|
Crea grupos de instancias administrados (MIG) |
|
Crea VMs de forma masiva |
|
Crea una sola VM |
|
Crea estaciones de trabajo virtuales |
Cloud Run
Puedes configurar GPUs para tus instancias de Cloud Run. Las GPUs son ideales para ejecutar cargas de trabajo de inferencia de IA con modelos de lenguaje grandes en Cloud Run.
En Cloud Run, consulta estos recursos para ejecutar cargas de trabajo de IA en GPUs:
- Configura GPUs para un servicio de Cloud Run
- Carga modelos de AA grandes en Cloud Run con GPUs
- Instructivo: Ejecuta la inferencia de LLM en GPUs de Cloud Run con Ollama