Tipos de máquina de GPU

Este documento descreve as séries de máquinas com GPU compatíveis com o AI Hypercomputer. É possível criar instâncias e clusters do Compute Engine que usam essas séries de máquinas para executar cargas de trabalho de inteligência artificial (IA), machine learning (ML) e computação de alto desempenho (HPC).

Para usar GPUs no Hipercomputador de IA, é possível usar a maioria das séries de máquinas da família otimizada para aceleradores. Cada série de máquinas na família de máquinas com otimização para aceleradores usa um modelo de GPU específico. Para mais informações sobre a família de máquinas otimizada para aceleradores, consulte Família de máquinas otimizada para aceleradores.

A seção a seguir descreve as séries de máquinas otimizadas para aceleradores compatíveis com o AI Hypercomputer.

Séries A4X Max e A4X

Esta seção descreve as configurações disponíveis para as séries de máquinas A4X Max e A4X. Para mais informações sobre essas séries de máquinas, consulte Séries de máquinas A4X e A4X Max otimizadas para aceleradores na documentação do Compute Engine.

A4X Max (bare metal)

Os tipos de máquina A4X Max usam superchips NVIDIA GB300 Grace Blackwell Ultra (nvidia-gb300) e são ideais para treinamento e disponibilização de modelos de fundação. Os tipos de máquina A4X Max estão disponíveis como instâncias bare metal.

A A4X Max é uma plataforma de exaescala baseada em NVIDIA GB300 NVL72. Cada máquina tem dois soquetes com CPUs NVIDIA Grace e núcleos Arm Neoverse V2. Essas CPUs estão conectadas a quatro GPUs NVIDIA B300 Blackwell com comunicação rápida de chip para chip (NVLink-C2C).

Superchips NVIDIA GB300 Grace Blackwell Ultra conectados
Tipo de máquina Contagem de vCPU1 Memória da instância (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Contagem de GPUs Memória da GPU3
(GB HBM3e)
a4x-maxgpu-4g-metal 144 960 12.000 6 3.600 4 1.116

1Uma vCPU é implementada como um único hyper-thread de hardware em uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da instância e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

A4X

Os tipos de máquina A4X usam superchips NVIDIA GB200 Grace Blackwell (nvidia-gb200) e são ideais para treinamento e disponibilização de modelos de fundação.

A A4X é uma plataforma de exaescala baseada em NVIDIA GB200 NVL72. Cada máquina tem dois soquetes com CPUs NVIDIA Grace e núcleos Arm Neoverse V2. Essas CPUs estão conectadas a quatro GPUs NVIDIA B200 Blackwell com comunicação rápida chip a chip (NVLink-C2C).

Superchips NVIDIA GB200 Grace Blackwell conectados
Tipo de máquina Contagem de vCPU1 Memória da instância (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Contagem de GPUs Memória da GPU3
(GB HBM3e)
a4x-highgpu-4g 140 884 12.000 6 2.000 4 744

1Uma vCPU é implementada como um único hyper-thread de hardware em uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da instância e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

Série A4

Esta seção descreve as configurações disponíveis para a série de máquinas A4. Para mais informações sobre essa série de máquinas, consulte Série de máquinas A4 otimizada para aceleradores na documentação do Compute Engine.

A4

Os tipos de máquina A4 têm GPUs NVIDIA B200 Blackwell (nvidia-b200) anexadas e são ideais para treinamento e disponibilização de modelos de fundação.

GPUs NVIDIA B200 Blackwell anexadas
Tipo de máquina Contagem de vCPU1 Memória da instância (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Contagem de GPUs Memória da GPU3
(GB HBM3e)
a4-highgpu-8g 224 3.968 12.000 10 3.600 8 1,440

1Uma vCPU é implementada como um único hyper-thread de hardware em uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da instância e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

Série A3

Nesta seção, descrevemos as configurações disponíveis para a série de máquinas A3. Para mais informações sobre essa série de máquinas, consulte Série de máquinas A3 otimizada para aceleradores na documentação do Compute Engine.

A3 Ultra

Os tipos de máquina A3 Ultra têm GPUs NVIDIA H200 SXM (nvidia-h200-141gb) anexadas e oferecem o maior desempenho de rede na série A3. Os tipos de máquina A3 Ultra são ideais para treinamento e serviço de modelos de fundação.

GPUs NVIDIA H200 anexadas
Tipo de máquina Contagem de vCPU1 Memória da instância (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Contagem de GPUs Memória da GPU3
(GB HBM3e)
a3-ultragpu-8g 224 2.952 12.000 10 3.600 8 1128

1Uma vCPU é implementada como um único hyper-thread de hardware em uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da instância e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

A3 Mega

Os tipos de máquina A3 Mega têm GPUs NVIDIA H100 SXM e são ideais para treinamento de modelo grandes e inferência de vários hosts.
GPUs NVIDIA H100 anexadas
Tipo de máquina Contagem de vCPU1 Memória da instância (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Contagem de GPUs Memória da GPU3
(GB HBM3)
a3-megagpu-8g 208 1.872 6.000 9 1.800 8 640

1Uma vCPU é implementada como um único hyper-thread de hardware em uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da instância e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

A3 High

Os tipos de máquina A3 High têm GPUs NVIDIA H100 SXM e são adequados para inferência de modelos grandes e ajuste fino de modelos.
GPUs NVIDIA H100 anexadas
Tipo de máquina Contagem de vCPU1 Memória da instância (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Contagem de GPUs Memória da GPU3
(GB HBM3)
a3-highgpu-1g 26 234 750 1 25 1 80
a3-highgpu-2g 52 468 1.500 1 50 2 160
a3-highgpu-4g 104 936 3.000 1 100 4 320
a3-highgpu-8g 208 1.872 6.000 5 1.000 8 640

1Uma vCPU é implementada como um único hyper-thread de hardware em uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da instância e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

A3 Edge

Os tipos de máquina A3 Edge têm GPUs NVIDIA H100 SXM e são projetados especificamente para veiculação. Eles estão disponíveis em um conjunto limitado de regiões.
GPUs NVIDIA H100 anexadas
Tipo de máquina Contagem de vCPU1 Memória da instância (GB) SSD local anexado (GiB) Contagem de NICs físicas Largura de banda máxima da rede (Gbps)2 Contagem de GPUs Memória da GPU3
(GB HBM3)
a3-edgegpu-8g 208 1.872 6.000 5
  • 600: para asia-south1 e northamerica-northeast2
  • 400: para todas as outras regiões do A3 Edge
8 640

1Uma vCPU é implementada como um único hyper-thread de hardware em uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura de banda de saída real depende do endereço IP de destino e de outros fatores. Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para armazenamento temporário de dados. Ela é separada da memória da instância e foi projetada especificamente para lidar com as demandas de largura de banda mais altas das cargas de trabalho com uso intensivo de gráficos.

A seguir

Para mais informações sobre GPUs, consulte as seguintes páginas na documentação do Compute Engine: