En este documento, se describen las series de máquinas con GPU que admite AI Hypercomputer. Puedes crear instancias y clústeres de Compute Engine que usen estas series de máquinas para ejecutar tus cargas de trabajo de inteligencia artificial (IA), aprendizaje automático (AA) y computación de alto rendimiento (HPC).
Para usar las GPU en AI Hypercomputer, puedes usar la mayoría de las series de máquinas de la familia de máquinas optimizadas para aceleradores. Cada serie de máquinas de la familia de máquinas optimizadas para aceleradores usa un modelo de GPU específico. Para obtener más información sobre la familia de máquinas optimizadas para aceleradores, consulta Familia de máquinas optimizadas para aceleradores.
En la siguiente sección, se describen las series de máquinas optimizadas para aceleradores que admite AI Hypercomputer.
A4X Max y la serie A4X
En esta sección, se describen las configuraciones disponibles para las series de máquinas A4X Max y A4X. Para obtener más información sobre estas series de máquinas, consulta Series de máquinas optimizadas para aceleradores A4X y A4X Max en la documentación de Compute Engine.
A4X Max (Bare Metal)
Los tipos de máquinas A4X Max
usan Ultra Superchips NVIDIA GB300 Grace Blackwell (nvidia-gb300) y
son ideales para el entrenamiento y la entrega de modelos de base. Los tipos de máquinas A4X Max están disponibles como instancias de Bare Metal.
A4X Max es una plataforma de exaescala basada en NVIDIA GB200 NVL72. Cada máquina tiene dos sockets con CPU NVIDIA Grace y núcleos Arm Neoverse V2. Estas CPUs están conectadas a cuatro GPUs NVIDIA B300 Blackwell con una rápida comunicación de chip a chip (NVLink-C2C).
| Superchips NVIDIA GB300 Grace Blackwell Ultra conectados | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Recuento de CPU virtuales1 | Memoria de la instancia (GB) | SSD local conectado (GiB) | Cantidad de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Recuento de GPU | Memoria de GPU3 (GB HBM3e) |
a4x-maxgpu-4g-metal |
144 | 960 | 12,000 | 6 | 3,600 | 4 | 1,116 |
1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.
A4X
Los tipos de máquinas A4X utilizan Superchips Grace Blackwell GB200 de NVIDIA (nvidia-gb200) y son ideales para el entrenamiento y la entrega de modelos de base.
A4X es una plataforma de exaescala basada en NVIDIA GB200 NVL72. Cada máquina tiene dos sockets con CPU NVIDIA Grace y núcleos Arm Neoverse V2. Estas CPUs están conectadas a cuatro GPUs NVIDIA B200 Blackwell con una rápida comunicación de chip a chip (NVLink-C2C).
| Superchips NVIDIA GB200 Grace Blackwell conectados | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Recuento de CPU virtuales1 | Memoria de la instancia (GB) | SSD local conectado (GiB) | Cantidad de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Recuento de GPU | Memoria de GPU3 (GB HBM3e) |
a4x-highgpu-4g |
140 | 884 | 12,000 | 6 | 2,000 | 4 | 744 |
1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.
Serie A4
En esta sección, se describen las configuraciones disponibles para la serie de máquinas A4. Para obtener más información sobre esta serie de máquinas, consulta Serie de máquinas A4 optimizadas para aceleradores en la documentación de Compute Engine.
A4
Los tipos de máquinas A4 tienen GPUs NVIDIA B200 Blackwell (nvidia-b200) conectadas y son ideales para el entrenamiento y la entrega de modelos de base.
| GPU NVIDIA B200 Blackwell conectadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Recuento de CPU virtuales1 | Memoria de la instancia (GB) | SSD local conectado (GiB) | Cantidad de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Recuento de GPU | Memoria de GPU3 (GB HBM3e) |
a4-highgpu-8g |
224 | 3,968 | 12,000 | 10 | 3,600 | 8 | 1,440 |
1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.
Serie A3
En esta sección, se describen las configuraciones disponibles para la serie de máquinas A3. Para obtener más información sobre esta serie de máquinas, consulta Serie de máquinas A3 optimizadas para aceleradores en la documentación de Compute Engine.
A3 Ultra
Los tipos de máquinas A3 Ultra tienen GPUs NVIDIA H200 SXM (nvidia-h200-141gb) conectadas y proporcionan el mayor rendimiento de red de la serie A3. Los tipos de máquinas A3 Ultra son ideales para el entrenamiento y la entrega de modelos básicos.
| GPU NVIDIA H200 conectadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Recuento de CPU virtuales1 | Memoria de la instancia (GB) | SSD local conectado (GiB) | Cantidad de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Recuento de GPU | Memoria de GPU3 (GB HBM3e) |
a3-ultragpu-8g |
224 | 2,952 | 12,000 | 10 | 3,600 | 8 | 1128 |
1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.
A3 Mega
Los tipos de máquinas A3 Mega tienen GPUs NVIDIA H100 SXM y son ideales para el entrenamiento de modelos grandes y la inferencia de varios hosts.| GPU NVIDIA H100 conectadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Recuento de CPU virtuales1 | Memoria de la instancia (GB) | SSD local conectado (GiB) | Cantidad de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Recuento de GPU | Memoria de GPU3 (GB HBM3) |
a3-megagpu-8g |
208 | 1,872 | 6,000 | 9 | 1,800 | 8 | 640 |
1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.
A3 High
Los tipos de máquinas A3 High tienen GPUs NVIDIA H100 SXM y son adecuados para la inferencia de modelos grandes y el ajuste de modelos.| GPU NVIDIA H100 conectadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Recuento de CPU virtuales1 | Memoria de la instancia (GB) | SSD local conectado (GiB) | Cantidad de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Recuento de GPU | Memoria de GPU3 (GB HBM3) |
a3-highgpu-1g |
26 | 234 | 750 | 1 | 25 | 1 | 80 |
a3-highgpu-2g |
52 | 468 | 1,500 | 1 | 50 | 2 | 160 |
a3-highgpu-4g |
104 | 936 | 3,000 | 1 | 100 | 4 | 320 |
a3-highgpu-8g |
208 | 1,872 | 6,000 | 5 | 1,000 | 8 | 640 |
1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.
A3, Edge
Los tipos de máquinas A3 Edge tienen GPUs NVIDIA H100 SXM y están diseñados específicamente para la entrega, además de estar disponibles en un conjunto limitado de regiones.| GPU NVIDIA H100 conectadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Recuento de CPU virtuales1 | Memoria de la instancia (GB) | SSD local conectado (GiB) | Cantidad de NICs físicas | Ancho de banda de red máximo (Gbps)2 | Recuento de GPU | Memoria de GPU3 (GB HBM3) |
a3-edgegpu-8g |
208 | 1,872 | 6,000 | 5 |
|
8 | 640 |
1 Una CPU virtual se implementa como un solo hipersubproceso de hardware en una de las plataformas de CPU disponibles.
2El ancho de banda de salida máximo no puede ser superior al número especificado. El ancho de banda de salida real depende de la dirección IP de destino y de otros factores.
Para obtener más información sobre el ancho de banda de la red, consulta Ancho de banda de red.
3La memoria de GPU es la memoria disponible en un dispositivo GPU que se puede usar para el almacenamiento temporal de datos. Es independiente de la memoria de la instancia y está diseñado específicamente para manejar las demandas de ancho de banda más altas de tus cargas de trabajo de alto contenido gráfico.
Próximos pasos
Para obtener más información sobre las GPUs, consulta las siguientes páginas de la documentación de Compute Engine:
- Obtén más información sobre las GPU en Compute Engine.
- Revisa la disponibilidad de las regiones y zonas de GPU.
- Obtén información sobre los precios de GPU.