Este documento descreve as séries de máquinas com GPU compatíveis com o AI Hypercomputer. É possível criar instâncias e clusters do Compute Engine que usam essas séries de máquinas para executar cargas de trabalho de inteligência artificial (IA), machine learning (ML) e computação de alto desempenho (HPC).
Para usar GPUs no Hipercomputador de IA, é possível usar a maioria das séries de máquinas da família otimizada para aceleradores. Cada série de máquinas na família de máquinas com otimização para aceleradores usa um modelo de GPU específico. Para mais informações sobre a família de máquinas otimizada para aceleradores, consulte Família de máquinas otimizada para aceleradores.
A seção a seguir descreve as séries de máquinas otimizadas para aceleradores compatíveis com o AI Hypercomputer.
Séries A4X Max e A4X
Esta seção descreve as configurações disponíveis para as séries de máquinas A4X Max e A4X. Para mais informações sobre essas séries de máquinas, consulte Séries de máquinas A4X e A4X Max otimizadas para aceleradores na documentação do Compute Engine.
A4X Max (bare metal)
Os tipos de máquina A4X Max usam superchips NVIDIA GB300 Grace Blackwell Ultra (nvidia-gb300) e são ideais para treinamento e disponibilização de modelos de fundação. Os tipos de máquina A4X Max estão disponíveis como instâncias bare metal.
A A4X Max é uma plataforma de exaescala baseada em NVIDIA GB300 NVL72. Cada máquina tem dois soquetes com CPUs NVIDIA Grace e núcleos Arm Neoverse V2. Essas CPUs estão conectadas a quatro GPUs NVIDIA B300 Blackwell com comunicação rápida de chip para chip (NVLink-C2C).
| Superchips NVIDIA GB300 Grace Blackwell Ultra conectados | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Contagem de vCPU1 | Memória da instância (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)2 | Contagem de GPUs | Memória da GPU3 (GB HBM3e) |
a4x-maxgpu-4g-metal |
144 | 960 | 12.000 | 6 | 3.600 | 4 | 1.116 |
1Uma vCPU é implementada como um único hyper-thread de hardware em
uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da instância e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
A4X
Os tipos de máquina A4X usam superchips NVIDIA GB200 Grace Blackwell (nvidia-gb200) e são ideais para treinamento e disponibilização de modelos de fundação.
A A4X é uma plataforma de exaescala baseada em NVIDIA GB200 NVL72. Cada máquina tem dois soquetes com CPUs NVIDIA Grace e núcleos Arm Neoverse V2. Essas CPUs estão conectadas a quatro GPUs NVIDIA B200 Blackwell com comunicação rápida chip a chip (NVLink-C2C).
| Superchips NVIDIA GB200 Grace Blackwell conectados | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Contagem de vCPU1 | Memória da instância (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)2 | Contagem de GPUs | Memória da GPU3 (GB HBM3e) |
a4x-highgpu-4g |
140 | 884 | 12.000 | 6 | 2.000 | 4 | 744 |
1Uma vCPU é implementada como um único hyper-thread de hardware em
uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da instância e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
Série A4
Esta seção descreve as configurações disponíveis para a série de máquinas A4. Para mais informações sobre essa série de máquinas, consulte Série de máquinas A4 otimizada para aceleradores na documentação do Compute Engine.
A4
Os tipos de máquina A4 têm GPUs NVIDIA B200 Blackwell (nvidia-b200) anexadas e são ideais para treinamento e disponibilização de modelos de fundação.
| GPUs NVIDIA B200 Blackwell anexadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Contagem de vCPU1 | Memória da instância (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)2 | Contagem de GPUs | Memória da GPU3 (GB HBM3e) |
a4-highgpu-8g |
224 | 3.968 | 12.000 | 10 | 3.600 | 8 | 1,440 |
1Uma vCPU é implementada como um único hyper-thread de hardware em
uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Para mais informações sobre largura de banda de rede, consulte
Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da instância e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
Série A3
Nesta seção, descrevemos as configurações disponíveis para a série de máquinas A3. Para mais informações sobre essa série de máquinas, consulte Série de máquinas A3 otimizada para aceleradores na documentação do Compute Engine.
A3 Ultra
Os tipos de máquina A3 Ultra têm GPUs NVIDIA H200 SXM (nvidia-h200-141gb) anexadas e oferecem o maior desempenho de rede na série A3. Os tipos de máquina A3 Ultra são ideais para treinamento e
serviço de modelos de fundação.
| GPUs NVIDIA H200 anexadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Contagem de vCPU1 | Memória da instância (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)2 | Contagem de GPUs | Memória da GPU3 (GB HBM3e) |
a3-ultragpu-8g |
224 | 2.952 | 12.000 | 10 | 3.600 | 8 | 1128 |
1Uma vCPU é implementada como um único hyper-thread de hardware em
uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da instância e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
A3 Mega
Os tipos de máquina A3 Mega têm GPUs NVIDIA H100 SXM e são ideais para treinamento de modelo grandes e inferência de vários hosts.| GPUs NVIDIA H100 anexadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Contagem de vCPU1 | Memória da instância (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)2 | Contagem de GPUs | Memória da GPU3 (GB HBM3) |
a3-megagpu-8g |
208 | 1.872 | 6.000 | 9 | 1.800 | 8 | 640 |
1Uma vCPU é implementada como um único hyper-thread de hardware em
uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da instância e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
A3 High
Os tipos de máquina A3 High têm GPUs NVIDIA H100 SXM e são adequados para inferência de modelos grandes e ajuste fino de modelos.| GPUs NVIDIA H100 anexadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Contagem de vCPU1 | Memória da instância (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)2 | Contagem de GPUs | Memória da GPU3 (GB HBM3) |
a3-highgpu-1g |
26 | 234 | 750 | 1 | 25 | 1 | 80 |
a3-highgpu-2g |
52 | 468 | 1.500 | 1 | 50 | 2 | 160 |
a3-highgpu-4g |
104 | 936 | 3.000 | 1 | 100 | 4 | 320 |
a3-highgpu-8g |
208 | 1.872 | 6.000 | 5 | 1.000 | 8 | 640 |
1Uma vCPU é implementada como um único hyper-thread de hardware em
uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da instância e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
A3 Edge
Os tipos de máquina A3 Edge têm GPUs NVIDIA H100 SXM e são projetados especificamente para veiculação. Eles estão disponíveis em um conjunto limitado de regiões.| GPUs NVIDIA H100 anexadas | |||||||
|---|---|---|---|---|---|---|---|
| Tipo de máquina | Contagem de vCPU1 | Memória da instância (GB) | SSD local anexado (GiB) | Contagem de NICs físicas | Largura de banda máxima da rede (Gbps)2 | Contagem de GPUs | Memória da GPU3 (GB HBM3) |
a3-edgegpu-8g |
208 | 1.872 | 6.000 | 5 |
|
8 | 640 |
1Uma vCPU é implementada como um único hyper-thread de hardware em
uma das plataformas de CPU disponíveis.
2A largura de banda de saída máxima não pode exceder o número informado. A largura
de banda de saída real depende do endereço IP de destino e de outros fatores.
Para mais informações sobre largura de banda de rede, consulte Largura de banda de rede.
3A memória da GPU é a memória em um dispositivo GPU que pode ser usada para
armazenamento temporário de dados. Ela é separada da memória da instância e foi
projetada especificamente para lidar com as demandas de largura de banda mais altas das
cargas de trabalho com uso intensivo de gráficos.
A seguir
Para mais informações sobre GPUs, consulte as seguintes páginas na documentação do Compute Engine:
- Saiba sobre GPUs no Compute Engine.
- Confira a disponibilidade de zonas e regiões de GPU.
- Saiba mais sobre os preços da GPU.